O NCMEC, o Google e a tecnologia de hash de imagens
Nos EUA, o Centro Nacional para Crianças Desaparecidas e Exploradas recebe milhões de denúncias de material de abuso sexual infantil on-line todos os anos. A vice-presidente sênior e diretora de operações Michelle DeLaune fala sobre a evolução da organização, as empresas de tecnologia que estão se oferecendo para lidar com o material de abuso sexual infantil (CSAM, na sigla em inglês) e a API Hash Matching do Google.
Você pode nos falar sobre o NCMEC e seu cargo?
Estou no NCMEC há mais de 20 anos e testemunhei a evolução da organização, os desafios e as ameaças às crianças e à segurança delas. Comecei minha carreira aqui como analista do CyberTipline.
O CyberTipline foi criado e lançado em 1998 como um canal de denúncias de possíveis incidentes de exploração infantil. Na época, recebíamos denúncias de familiares preocupados com um adulto falando com uma criança on-line de maneira imprópria, além de pessoas que haviam encontrado sites contendo material de abuso sexual infantil. Então uma lei federal foi aprovada nos Estados Unidos exigindo que empresas americanas de tecnologia fizessem uma denúncia ao CyberTipline de qualquer incidente aparente de CSAM nos sistemas delas.
No início, talvez recebíamos pouco mais de 100 denúncias de exploração infantil por semana. Recebemos nossa primeira denúncia de uma empresa de tecnologia em 2001. Agora, em 2021, recebemos cerca de 70 mil novas denúncias todos os dias. Algumas dessas são do público, mas a maioria é enviada por empresas de tecnologia.
Como o NCMEC ajuda as empresas on-line a combater o material de abuso sexual infantil?
A lei não exige que as empresas façam esforços proativos. Elas só precisam fazer a denúncia se detectarem ou tiverem conhecimento desse material. Esse foi o verdadeiro impulso do grande crescimento que vimos no CyberTipline ao longo dos anos. No entanto, nos últimos cinco anos, ocorreu o aumento mais significativo de denúncias. Essa explosão pode ser atribuída aos esforços que várias empresas de tecnologia estão fazendo voluntariamente para detectar, remover e denunciar proativamente o material de abuso sexual infantil.
Um dos principais programas que operamos no Centro Nacional para Crianças Desaparecidas e Exploradas são as plataformas de compartilhamento de hash, sendo que duas são para a contribuição de empresas do setor e uma para a contribuição de ONGs. Pela plataforma de compartilhamento de hash das ONGs, o NCMEC oferece às empresas de tecnologia interessadas mais de 5 milhões de valores de hash de material de abuso sexual infantil confirmado e verificado três vezes para ajudar a combater esse conteúdo nas redes. Várias grandes empresas, incluindo o Google, usaram essa lista e estão tomando medidas proativas para remover o material de abuso sexual infantil das plataformas. Com essa lista, as ONGs conceituadas que atendem crianças também podem oferecer hashes para o setor de tecnologia, pela plataforma do NCMEC. A ideia é reduzir a necessidade de contato individual das empresas de TI com as ONGs.
Também oferecemos uma plataforma do setor, que permite o compartilhamento de hashes próprios de CSAM entre determinadas empresas. Estamos garantindo todas as ferramentas necessárias para que as empresas que estão dispostas possam detectar esse material proativamente, além do compartilhamento de hashes próprios de CSAM entre as empresas. O Google é o maior colaborador dessa plataforma, com aproximadamente 74% do total de hashes na lista.
Como você pode imaginar, com o volume de denúncias que recebemos agora, muitas imagens iguais estão sendo denunciadas várias vezes. Isso é totalmente compreensível, já que as empresas estão usando valores de hash para detectar material conhecido. Porém, com o aumento desse conhecimento, é mais importante para o NCMEC conseguir identificar materiais novos que foram produzidos e compartilhados on-line.
A API Hash Matching do Google ajudou o NCMEC a priorizar as denúncias do CyberTipline. Você pode nos falar mais sobre como esse projeto começou?
O sucesso do programa de compartilhamento de hash levou a um novo desafio: um imenso volume que traria muito trabalho pela frente. Uma organização sem fins lucrativos como o NCMEC não tem o poder computacional para atender a esse volume. Por isso, ficamos animados e gratos pela ajuda do Google no desenvolvimento da ferramenta de API Hash Matching.
Em 2020, recebemos 21 milhões de denúncias do CyberTipline, mas cada uma delas podia conter diversos vídeos e imagens. Essas denúncias somavam quase 70 milhões de imagens e vídeos de abuso sexual infantil. É claro que esse volume contém duplicação. Embora seja fácil para o NCMEC encontrar correspondências exatas, não seria possível detectar imagens visualmente semelhantes em grande escala e em tempo real para identificar e priorizar imagens nunca vistas. E isso é fundamental ao tentar identificar crianças que estão sofrendo abuso sexual atualmente.
Quais foram os benefícios da API Hash Matching para o NCMEC?
Temos um trabalho muito importante, que é coletar informações críticas e encaminhar o mais rápido possível para as autoridades. Uma das vantagens dessa ferramenta é possibilitar uma nova maneira de agregar imenso valor às denúncias do CyberTipline.
Temos um programa de trabalho em que estamos revisando e identificando todos os vídeos e imagens de abuso sexual infantil. Por exemplo, "isso é abuso", "isso não é abuso" ou "é difícil identificar a idade da criança ou pessoa". Porém, como você pode imaginar, com 70 milhões de arquivos só no ano passado, nunca vamos conseguir identificar todos. Com essa API, podemos fazer uma comparação. Quando incluímos uma tag em um arquivo, a API permite identificar todos os arquivos visualmente semelhantes, que então são marcados de acordo com isso em tempo real. Como resultado, conseguimos incluir tags em mais de 26 milhões de imagens.
Assim, agregamos mais valor às denúncias que enviamos às autoridades, para priorizarem a análise, conforme necessário. Isso também nos ajuda a identificar quais imagens nunca foram vistas antes. Elas geralmente contêm uma criança que está sendo abusada sexualmente em algum lugar do mundo. Se estamos procurando uma agulha no palheiro, então essa agulha é uma criança que precisa ser resgatada. Com a ferramenta do Google, podemos nos concentrar nessas imagens com crianças que precisam de ajuda imediata.
Como isso afetou o bem-estar dos revisores humanos do NCMEC que processam denúncias do CyberTipline e analisam o material de abuso sexual infantil?
Essa ferramenta de detecção de material de abuso sexual infantil diminuiu a necessidade da nossa equipe olhar para as mesmas imagens várias e várias vezes. São imagens de crianças sofrendo abuso e que talvez já estejam na idade adulta. Essas imagens vivem on-line perpetuamente e contribuem para a vitimização contínua desses indivíduos. Portanto, a marcação dessas imagens permite focar as crianças que estão passando por abuso sexual e, ao mesmo tempo, remover as imagens ilegais.
É por isso que nossos funcionários estão aqui. Eles querem ajudar essas crianças. Essa foi uma melhoria inovadora na capacidade de cuidar do bem-estar da nossa equipe e não se deparar com o mesmo material nocivo diversas vezes.
Como esse trabalho ajuda as empresas de tecnologia como um todo a combater esse tipo de material on-line?
Sabemos que o Google oferece tecnologia de detecção de CSAM para as empresas que apoiam a luta global contra o CSAM, e a própria API Hash Matching tem um impacto direto que vai muito além do NCMEC. Todas as empresas de tecnologia estão aproveitando os benefícios de um processo mais simplificado e eficiente no Centro Nacional. As denúncias do CyberTipline são resolvidas e atendidas de forma mais imediata e com maior valor agregado do que se não tivéssemos essa ferramenta.
O NCMEC é um recurso central para as empresas de tecnologia, autoridades, vítimas e famílias. Temos uma visão totalmente exclusiva sobre os problemas e as soluções. Devido ao CyberTipline, estamos bastante cientes do novo tipo de material de abuso sexual infantil que está circulando on-line. Todas essas denúncias são disponibilizadas para as autoridades. Nunca devemos perder de vista que, no fim, há crianças reais que foram abusadas e exploradas sexualmente.
Sabemos que mais de 20 mil crianças identificadas foram abusadas sexualmente ou tiveram o abuso gravado, seja em vídeo ou imagem. Essas pessoas, algumas ainda são crianças e outras já adultas, estão cientes da vitimização contínua que enfrentam. É por isso que é tão importante fazer o possível para minimizar e reduzir a circulação dessas imagens.
Uma coisa que talvez não fique clara para o público é que há uma tendência de desconsiderar material de abuso sexual infantil conhecido, porque as imagens são consideradas "antigas" ou "já divulgadas". Sempre lembramos que essas crianças são reais, que mais de 20 mil indivíduos estão tentando superar o trauma e retomar o controle da própria vida. Para eles, é um consolo saber que empresas como o Google fazem o possível para remover as imagens que retratam os piores momentos da vida deles.
Se você encontrar materiais ou imagens de abuso sexual infantil on-line, faça uma denúncia ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) ou à autoridade do seu país.
O Google tem o compromisso de combater a exploração e o material de abuso sexual infantil on-line, além de prevenir que nossos serviços sejam usados para disseminar esse tipo de conteúdo. Saiba mais sobre isso no nosso site de combate ao abuso sexual infantil, (em inglês).
Inovações em segurança cibernética
Nós protegemos mais pessoas on-line no mundo como ninguém.
Saiba mais