NCMEC와 Google, 그리고 이미지 해싱 기술
미국 실종아동 및 아동학대방지 국립센터(NCMEC)는 매년 수백만 건의 온라인 아동 성적 학대 콘텐츠(CSAM) 신고를 받습니다. NCMEC의 수석 부사장이자 최고운영책임자인 미셸 드론이 조직의 발전, CSAM 문제 해결을 위한 테크 기업의 노력, Google의 Hash Matching API에 관해 이야기한 내용을 확인해 보세요.
NCMEC는 어떤 기관이며, 본인이 어떤 역할을 맡고 계신지 설명해 주세요.
저는 NCMEC에서 20년 넘게 근무하고 있습니다. 덕분에 조직이 발전하는 모습뿐만 아니라 아동과 아동의 안전에 관한 과제, 위협이 어떻게 달라져 가는지 직접 목격했습니다. NCMEC에서 저의 첫 역할은 CyberTipline 분석가였습니다.
CyberTipline은 1998년도에 구축되어 운영되기 시작했으며, 일반 대중이 아동 착취가 의심되는 사건을 직접 신고할 수 있는 통로입니다. 당시에는 온라인상에서 자녀에게 부적절하게 말을 거는 성인들 때문에 염려하는 부모와 CSAM이 포함된 웹사이트를 발견한 사람들의 신고를 받았습니다. 이후 미국에서 국내 테크 기업이 자사 시스템에서 명백한 CSAM을 발견하는 경우 CyberTipline 신고를 의무화하는 연방법이 통과되었습니다.
초기에는 아동 착취 신고 수가 주당 100건이 넘는 정도였고, 처음 테크 기업의 신고를 받은 해는 2001년이었습니다. 세월이 흘러 2021년에는 매일 약 7만 건의 새로운 신고를 받고 있으며, 대중이 신고하는 경우도 있지만, 대부분은 테크 기업의 신고입니다.
온라인 기업이 CSAM을 근절하는 데 동참하도록 NCMEC가 어떻게 지원하고 있나요?
기업은 CSAM 근절과 관련하여 선제적인 노력을 기울여야 한다는 법적 의무를 지지는 않습니다. 다만 기업에서 CSAM을 감지하거나 인식한 경우에는 이를 신고해야 합니다. 이는 지난 몇 년 동안 CyberTipline 신고가 증가하게 된 주요 원인입니다. 그러나 지난 5년 동안은 특히 신고가 눈에 띄게 증가했습니다. 이 폭발적인 증가는 많은 테크 기업에서 자발적이고 선제적으로 CSAM을 감지, 삭제, 신고하고자 노력한 결과입니다.
NCMEC의 주력 운영 프로그램 중 하나는 해시 공유 플랫폼으로, 참여하는 업계 및 선별된 NGO 모두를 위한 플랫폼입니다. NGO 해시 공유 플랫폼을 통해서 NCMEC는 확인 및 삼중 점검한 CSAM의 5백만 건이 넘는 해시 값을 관심을 보이는 테크 기업에 제공하여 기업의 네트워크에서 CSAM을 근절하는 작업을 지원합니다. Google을 포함한 많은 대기업에서 CSAM 해시 목록을 활용하여 자사 플랫폼에서 CSAM을 삭제하는 적극적인 조치를 취하고 있습니다. 또한 CSAM 해시 목록은 아동을 위해 활동하는 다른 유명 NGO에서 NCMEC 해시 플랫폼을 통해 자체 해시를 테크 기업에 제공할 수 있게 하므로, 테크 기업이 각 NGO와 개별적으로 연락해야 할 필요성을 최소화합니다.
NCMEC는 업계용 해시 공유 플랫폼도 제공하여 선별된 기업 간에 CSAM 자체 해시를 공유할 수 있게 합니다. CSAM을 자발적이고 선제적으로 감지하려는 어느 기업이나 NCMEC를 통해 감지에 필요한 모든 도구를 이용하고, 기업 간에 CSAM 자체 해시를 공유할 수 있습니다. Google은 목록의 총 해시 개수 중 약 74%를 차지하며 해시 공유 플랫폼에 가장 크게 기여하고 있습니다.
현재 접수되는 신고량에서 예상할 수 있듯이 다수의 동일한 이미지가 중복으로 신고되고 있습니다. 이는 기업에서 이미 확인된 콘텐츠를 감지하는 해시 값을 사용하기 때문에 충분히 이해할 수 있는 일이지만, 이미 확인된 콘텐츠가 늘어나면서 NCMEC에서 온라인에 새롭게 유포된 이미지를 식별할 수 있는 역량을 갖춰야 할 필요성이 부각되었습니다.
NCMEC는 Google의 Hash Matching API를 통해 CyberTipline 신고의 우선순위를 파악할 수 있게 되었습니다. 이 프로젝트가 어떻게 시작되었는지 더 자세히 이야기해 주시겠어요?
해시 공유 프로그램이 성공하면서 완전히 새로운 과제가 생겼는데 신고량이 엄청나게 많다는 문제였습니다. NCMEC와 같은 비영리 조직은 이렇게 많은 양을 처리할 만큼의 대량 컴퓨팅 역량을 갖추고 있지 않습니다. 이처럼 도움이 절실한 상황이었기 때문에 Hash Matching API 도구를 만들도록 지원해 준 Google에 정말 감사했습니다.
2020년에 NCMEC는 CyberTipline을 통해 2,100만 건의 신고를 받았습니다. 각 신고에는 신고자가 여러 이미지와 동영상을 첨부하기도 하는데 실제로 2,100만 건의 신고에는 7천만 개에 가까운 아동 성적 학대 이미지와 동영상이 포함되어 있었습니다. 신고 내용 중에는 중복이 있을 수밖에 없는데 NCMEC에서는 기존의 것과 일치하는 결과는 쉽게 감지할 수 있었지만, 처음 신고된 이미지의 식별과 우선적인 처리를 위한 실시간 대규모 유사 이미지 감지 역량은 없었습니다. 하지만 이는 성적 학대를 받는 아동을 판별하는 데 꼭 필요한 것이었죠.
NCMEC에서는 Hash Matching API를 통해 어떤 이점을 얻고 있나요?
NCMEC에는 매우 중요한 임무가 있습니다. 중요한 정보를 받아서 가능한 한 빠르게 법률 집행이 이루어지도록 만드는 것입니다. Hash Matching API의 이점 중 하나는 CyberTipline 신고에 우선순위를 지정하는 새로운 방식을 제공한다는 점입니다.
NCMEC는 모든 아동 성적 학대 이미지 및 동영상을 검토하여 라벨을 지정하는 프로그램을 갖추고 있습니다. 예를 들어 ‘CSAM임', ‘CSAM이 아님’ 또는 '아동 또는 개인의 나이를 파악하기 어려움'과 같은 라벨을 지정합니다. 하지만 작년 한 해에만 7천만 건의 파일이 접수되었는데 모든 파일에 라벨을 지정하기란 불가능합니다. 그러나 Hash Matching API를 사용하면 비교 작업을 진행할 수 있습니다. 한 파일에 태그를 지정하면 API를 통해 모든 시각적으로 유사한 파일을 식별할 수 있으므로, 적절하게 실시간으로 태그를 지정하면 됩니다. 결과적으로 2천 6백만 개가 넘는 이미지에 태그를 지정할 수 있었습니다.
이러한 방법을 통해 법률 집행 기관에 보낼 신고의 우선순위를 지정할 수 있으므로, 관련 기관에서는 가장 먼저 검토를 받아야 하는 신고를 우선적으로 처리할 수 있습니다. 또한 Hash Matching API는 NCMEC에서 이전에 확인하지 않은 새로운 이미지인지 파악하는 데 도움이 됩니다. 새로운 이미지의 경우 세계 어딘가에서 아동의 성적 학대가 이루어지고 있을 때가 많습니다. '모래밭에서 바늘 찾기'라는 속담처럼 쉽지는 않지만 구조가 필요한 아동을 샅샅이 찾고 있습니다. Google의 도구 덕분에 NCMEC는 즉각적인 도움이 필요한 아동의 모습이 담긴 이미지에 더욱 집중할 수 있습니다.
CSAM 감지 도구의 도입이 CyberTipline을 통해 들어온 신고를 처리하여 CSAM을 분석하는 NCMEC 검토자의 정신 건강에 어떤 영향을 주었나요?
CSAM 감지 도구를 통해 직원들이 같은 이미지를 반복해서 봐야 하는 경우가 줄어들었습니다. CSAM에는 현재 성인이 된 피해자의 이미지도 있습니다. 이러한 이미지가 온라인에서 지속적으로 유포되면 피해자가 계속 고통받게 됩니다. 따라서 이미지에 태그를 지정하면 직원들이 현재 성적 학대를 겪는 것으로 보여지는 아동에게 집중하는 한편, 불법적인 이미지를 삭제하여 더 이상 유포되지 않도록 할 수 있습니다.
이는 직원들이 NCMEC에서 일하는 이유, 즉 성적 학대 피해 아동을 돕고 싶다는 목적을 이루게 했습니다. 직원들이 정신 건강을 관리하고 이미 확인된 유해한 콘텐츠를 반복해서 접하지 않게 되는 데 CSAM 감지 도구가 크게 기여한 것입니다.
CSAM 감지 도구는 테크 기업에서 이러한 유형의 온라인 콘텐츠를 근절하는 작업 전반에 어떤 도움이 되나요?
NCMEC는 Google에서 CSAM 감지 기술을 기업에 제공하여 CSAM을 근절하려는 전 세계적인 노력을 지원하고 있으며, Hash Matching API 자체만으로도 NCMEC 외의 많은 기관에 직접적인 영향을 끼치고 있습니다. 모든 테크 기업이 NCMEC에서 제공하는 더욱 간소화되고 효율적인 프로세스의 이점을 누리고 있습니다. CSAM 감지 도구를 도입한 이후 CyberTipline 신고를 더욱 시의적절하게 해결 및 처리하고 있으며 신고의 우선순위도 지정할 수 있게 되었습니다.
NCMEC는 테크 기업, 법률 집행, 구조된 아동 및 그 가족을 위한 중앙 리소스입니다. 덕분에 놀랍도록 독특한 관점으로 문제를 확인하고 해결책을 검토할 수 있습니다. CyberTipline을 통해 새롭게 생성된 CSAM과 기존에 제작되어 온라인으로 유포되고 있는 CSAM을 더욱 잘 인식하게 되었습니다. 신고된 모든 사례에는 법적 조치를 취할 수 있게 되었습니다. 우리는 성적으로 학대받고 착취당하는 아동이 실제로 존재한다는 사실을 결코 잊어서는 안 됩니다.
NCMEC에서 성적 학대 동영상 혹은 이미지의 피해자로 확인한 아동은 2만 명이 넘습니다. 구조된 아동은 아직 어린이일 수도 있고 이제 성인이 되었을 수도 있지만 피해가 계속될 것임을 누구보다도 잘 알고 있습니다. 이는 학대 이미지의 유포가 최소화되고 줄어들도록 우리가 최선을 다해야만 하는 이유이기도 합니다.
대중들이 잘 모르는 한 가지 사실은 이미 확인된 CSAM이 오래되거나 재유포된 것으로 여겨져 간과되는 경향이 있다는 것입니다. NCMEC는 사람들에게 피해자가 실제 아동이며, 2만 명이 넘는 피해자가 치료를 받고 재활하려고 노력하고 있다는 사실을 상기시키기 위해 끊임없이 노력하고 있습니다. 피해자들은 Google과 같은 기업에서 인생의 가장 끔찍했던 순간을 담은 이미지를 삭제하기 위해 모든 노력을 기울이고 있다는 사실에 큰 위안을 얻습니다.
아동 성적 학대 이미지나 자료를 온라인에서 발견하면 미국 실종아동 및 아동학대방지 국립센터(NCMEC)로 신고하거나 전 세계 관련 기관에 신고해 주세요.
Google은 온라인상의 아동 성적 학대 및 착취를 근절하고, Google 서비스가 CSAM 확산에 사용되는 것을 막기 위해 최선을 다하고 있습니다. 자세한 내용은 Google의 아동 보호 웹사이트를 참고하세요.
사이버 보안 강화
Google이 그 누구보다 많은 온라인 사용자를 안전하게 보호하는 방법을 알아보세요.
자세히 알아보기