믿을 수 있는
정보와 콘텐츠
Google은 정보 제공의 중요성과 사용자 및 사회 보호에 대한 가치 사이의 균형을 맞추기 위해 노력합니다. Google은 이러한 책임을 중요하게 생각합니다. Google의 목표는 사용자를 위험으로부터 보호하고, 믿을 수 있는 정보를 제공하며, 보다 안전한 인터넷 환경을 조성하기 위해 전문가 및 기관과의 파트너십을 통해 보다 믿을 수 있는 정보와 콘텐츠를 제공하는 것입니다.
사용자 보호
악용 사례 방지
Google은 악성 콘텐츠로부터 사용자를 안전하게 보호하기 위해 머신러닝을 기반으로 하는 보호 조치를 사용합니다. Gmail에서는 1분에 1,000만 개에 가까운 스팸 이메일이 받은편지함에서 자동으로 차단되며, Google 검색의 자동 완성 기능에는 잠재적으로 유해한 검색어를 제안하지 않도록 방지하는 도구가 포함되어 있습니다. 자동 감지 기능은 YouTube에서 유해한 콘텐츠가 효율적이면서도 효과적으로 그리고 대규모로 삭제되도록 도와줍니다. 2023년 2분기에 YouTube에서 삭제된 정책 위반 동영상의 93%가 자동으로 감지된 동영상이었습니다. Google은 또한 생성형 AI가 유해한 콘텐츠를 만드는 데 사용될 위험을 최소화하기 위해 생성형 AI 도구에 안전 조치를 구현하고 있습니다.
아울러 Google의 각 제품에는 허용되는 콘텐츠 및 행동과 허용되지 않는 콘텐츠 및 행동을 명시하는 일련의 정책 이 적용됩니다. Google의 정책은 새로운 위험에 대응하기 위해 지속적으로 개정되고 업데이트됩니다. AI와 관련한 작업을 진행할 때는 제품 개발 방향을 정하고 출시 전에 모든 AI 애플리케이션을 테스트 및 평가할 수 있도록 AI 원칙 을 준수합니다.
유해 콘텐츠 감지
악의적인 행위자들이 사용하는 수법이 진화함에 따라 Google 제품에 유입되는 유해한 콘텐츠를 감지하기 위한 더 많은 노력이 요구됩니다. AI는 Google이 플랫폼 전반에서 악용 감지를 확대할 수 있도록 도와줍니다. AI 기반 분류기는 잠재적으로 유해한 콘텐츠가 삭제되거나 검토자에게 에스컬레이션될 수 있도록 빠르게 분류하는 데 도움이 됩니다. 2022년에는 자동화된 시정 조치를 통해 증오심 표현, 폭력, 유해한 건강 관련 주장이 담긴 5,120만여 개의 광고를 감지하여 차단할 수 있었습니다. 새롭고 혁신적인 AI인 대규모 언어 모델은 새로운 유형의 위험이 되는 유해 콘텐츠를 감지하고 평가하는 데 소요되는 시간을 대폭 감소하는 데 큰 도움이 될 것입니다.
Google은 잠재적으로 유해한 콘텐츠를 분류하는 외부 조직과도 협력합니다. Google과 YouTube는 문화적 전문성과 주제 전문성을 갖춘 전 세계 수백 개의 우선 신고자 조직에서 에스컬레이션한 콘텐츠를 검토합니다.
적절한 대응
Google은 사람과 AI 기반 기술을 모두 사용하여 잠재적인 정책 위반을 평가하고 정책 위반으로 분류된 콘텐츠에 적절하게 대응합니다. 정책을 위반하는 콘텐츠가 발견되면 추가적인 악용을 막기 위해 콘텐츠를 제한, 삭제하거나, 수익 창출을 중지하거나, 혹은 계정 수준의 조치를 취할 수 있습니다.
2022년에는 Google 지도에서 3억 개가 넘는 가짜 콘텐츠가 차단 또는 삭제되었고, 1억 1,500만 건의 정책 위반 검토가 이루어졌으며, 가짜 비즈니스 프로필을 생성하려는 2,000만 건의 시도가 차단되었습니다. 2023년 2분기에는 YouTube에서 커뮤니티 가이드 를 위반하는 1,400만여 개의 채널과 700만여 개의 동영상이 삭제되었습니다.
문맥의 미묘한 차이를 평가하여 과잉 삭제 위험을 줄이기 위해 2만 명에 달하는 전문 검토자들이 Google 제품 및 서비스 전반에서 정책을 시행하고, 콘텐츠를 관리하며, 정책 위반으로 분류된 콘텐츠를 평가하는 등 다양한 역할을 수행합니다.
크리에이터 또는 게시자는 Google의 조치가 부당하다고 생각하는 경우, 이의신청 을 진행할 수 있습니다.
믿을 수 있는
정보 제공
지능형 알고리즘
콘텐츠 평가에 도움이 되는 도구
YouTube의
책임감 있는 콘텐츠 관리
사람과 기술의 힘을 모두 동원해 YouTube 정책을 위반하는 콘텐츠를 삭제합니다.
뉴스와 정보에 대해 공신력 있는 출처를 우선 노출하고 시청자에게 맥락에 관한 정보를 제공합니다.
정책 위반 가능성이 있는 콘텐츠 및 사용자에게 피해를 줄 수 있는 잘못된 정보의 확산을 줄임으로써 콘텐츠를 책임감 있게 관리합니다.
신뢰할 수 있는 크리에이터에게는 YouTube 파트너 프로그램(YPP)을 통해 광고 수익과 기타 여러 수익원의 형태로 보상을 제공합니다. 2022년 6월 기준 직전 3년간 YPP를 통해 크리에이터, 아티스트, 미디어 회사에 지급된 수익금은 500억 달러가 넘습니다.
보다 안전한 인터넷을 조성하기 위한 파트너십
사용자 안전을 위한 지식 공유
Google은 시민 사회, 학계, 정부의 전문가들과 협력하여 잘못된 정보, 광고 안전, 선거 공정성, 콘텐츠 검토에 사용되는 AI, 온라인 아동 착취 방지와 같은 전 세계적인 문제에 대응합니다. 또한 이 분야의 발전을 촉진하기 위해 연구 결과를 공개하고 학계에 데이터 세트를 제공합니다.
YouTube는 정기적으로 독립 단체인 아동 및 가족을 위한 자문 위원회 에 제품 및 정책 업데이트를 검토받습니다. 검토 대상에는 아동 및 청소년 원칙 과 청소년 정신 건강 및 웰빙을 위한 일련의 제품 업데이트 가 포함됩니다.
전문가들과의 협력을 통한 불법 콘텐츠 대응
Google은 생태계 전반에서 악성 콘텐츠가 삭제될 수 있도록 파트너들과 협력하여 뚜렷한 악성 콘텐츠 신호를 찾아내고 공유합니다. 매년 미국 국립 실종학대아동방지센터에 수백만 건의 아동 성적 학대 콘텐츠 해시를 공유합니다. Google은 테크 기업들이 안전하고 책임감 있는 방식으로 신호를 공유하도록 지원하는 프로그램인 Project Lantern에도 참여하고 있습니다. 이에 더해 YouTube는 테크 기업, 정부, 시민 사회 및 학계가 힘을 모아 온라인상의 테러 활동과 폭력적인 극단주의 활동에 맞서는 '테러 방지를 위한 글로벌 인터넷 포럼(GIFCT)'을 공동 창립했습니다.
안전 증진 조직에 대한 지원
Google은 Be Internet Awesome, YouTube의 '잠시만요' 캠페인, Google News Lab 등 교육 및 자료를 제공하는 효과적인 프로그램을 통해 온라인 안전 및 미디어 리터러시를 증진하는 세계 각지의 조직을 지원합니다. Google과 YouTube는 135개의 사실확인 조직으로 이루어진 네트워크를 지원하기 위해 국제팩트체킹네트워크(IFCN)에 1,320만 달러의 지원금을 수여한다고 발표했습니다. 이러한 협업을 통해 55만 명이 넘는 저널리스트들이 디지털 인증 역량을 습득했으며, 온라인에서 추가로 260만 명의 저널리스트들이 교육을 받았습니다.