Pular para o conteúdo

hero-ncmec.jpg

O NCMEC, o Google e a tecnologia de hash de imagens

Nos EUA, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) recebe milhões de denúncias de material de abuso sexual infantil on-line todos os anos. A vice-presidente sênior e diretora de operações Michelle DeLaune fala sobre a evolução da organização, as empresas de tecnologia que estão colaborando para lidar com materiais de abuso sexual infantil e a API Hash Matching do Google.

Compartilhar

Você pode nos falar sobre o Centro Nacional para Crianças Desaparecidas e Exploradas e seu cargo?

Estou no NCMEC há mais de 20 anos e testemunhei a evolução da organização, além dos desafios e das ameaças à segurança das crianças. Comecei minha carreira aqui como analista do CyberTipline.

O CyberTipline foi criado e lançado em 1998 como um canal público de denúncias de possíveis incidentes envolvendo exploração infantil. Na época, recebíamos denúncias de familiares preocupados com adultos falando com crianças on-line de maneira imprópria, além de pessoas que haviam encontrado sites contendo material de abuso sexual infantil. Então uma lei federal foi aprovada nos Estados Unidos exigindo que empresas norte-americanas de tecnologia fizessem denúncias ao CyberTipline de qualquer possível incidente envolvendo esse tipo de material em seus sistemas.

No início, ao menos 100 denúncias de exploração infantil eram feitas por semana. Recebemos nossa primeira denúncia de uma empresa de tecnologia em 2001. Em 2021, recebemos cerca de 70 mil novas denúncias todos os dias. Algumas delas são feitas pelo público, mas a maioria é enviada por empresas de tecnologia.

ncmec-image-1.jpg

Como o NCMEC ajuda as empresas on-line a combater materiais de abuso sexual infantil?

A lei não exige que as empresas tomem medidas proativas. Mas elas deveriam denunciar esse tipo de material assim que tomarem conhecimento dele. Esse foi o verdadeiro incentivo do grande crescimento que vimos no CyberTipline ao longo dos anos. Mas nos últimos cinco anos, tivemos o aumento mais significativo de todos. Essa explosão pode ser atribuída às iniciativas de várias empresas de tecnologia para detectar, remover e denunciar proativamente os materiais de abuso sexual infantil.

Um dos principais programas que operamos no Centro Nacional para Crianças Desaparecidas e Exploradas são as plataformas de compartilhamento de hash, sendo que duas são para a contribuição de empresas do setor e uma para a contribuição de ONGs. Pela plataforma de compartilhamento de hash das ONGs, o NCMEC oferece às empresas de tecnologia interessadas mais de cinco milhões de valores de hash de material de abuso sexual infantil confirmado e verificado três vezes para ajudar a combater esse tipo de conteúdo nas redes. Várias grandes empresas, incluindo o Google, usaram essa lista e estão tomando medidas proativas para remover esse tipo de material das plataformas. Com essa lista, as ONGs conceituadas que atendem crianças também podem oferecer hashes para o setor de tecnologia usando a plataforma do NCMEC. A ideia é reduzir a necessidade de contato individual das empresas de tecnologia com as ONGs.

Também oferecemos uma plataforma do setor, que permite o compartilhamento de hashes próprios de material de abuso sexual infantil entre determinadas empresas. Garantimos as ferramentas essenciais para que empresas com capacidade e interesse possam identificar esse material proativamente, além de viabilizar o compartilhamento de hashes próprios de material de abuso sexual infantil entre elas. O Google é o maior colaborador dessa plataforma, com aproximadamente 74% do total de hashes na lista.

Como você pode imaginar, com o volume de denúncias que recebemos agora, muitas imagens iguais são denunciadas várias vezes. Isso é totalmente compreensível, já que as empresas estão usando valores de hash para detectar materiais conhecidos. Mas conforme o volume cresce, é essencial que o NCMEC consiga identificar materiais novos que foram produzidos e compartilhados on-line.

ncmec-story-image-2.jpg

A API Hash Matching do Google ajudou o NCMEC a priorizar as denúncias do CyberTipline. Você pode nos falar mais sobre como esse projeto começou?

O sucesso do programa de compartilhamento de hashes gerou um novo desafio: um imenso volume que traria muito trabalho pela frente. Uma organização sem fins lucrativos como o NCMEC não tem o poder computacional para lidar com esse volume. Por isso, houve muita animação e gratidão pela ajuda do Google no desenvolvimento da API Hash Matching.

Em 2020, o CyberTipline recebeu 21 milhões de denúncias, mas cada uma delas poderia conter diversos vídeos e imagens. Essas denúncias somavam quase 70 milhões de imagens e vídeos de abuso sexual infantil. É claro que esse volume contém duplicações. Embora seja fácil para o NCMEC encontrar correspondências exatas, não seria possível detectar conteúdo visualmente semelhante em grande escala e em tempo real para identificar e priorizar imagens nunca vistas. E isso é fundamental ao tentar identificar crianças que estão sofrendo abuso sexual no presente.

Quais benefícios a API Hash Matching trouxe para o NCMEC?

Temos um trabalho muito importante, que é coletar informações essenciais e encaminhá-las o mais rápido possível para as autoridades. Uma das vantagens dessa ferramenta é que ela agrega um valor imenso às denúncias do CyberTipline.

Temos um programa para revisar e classificar todos os vídeos e imagens de abuso sexual infantil. Por exemplo, "isso é abuso", "isso não é abuso" ou "é difícil identificar a idade da criança ou pessoa". Porém, como você pode imaginar, com 70 milhões de arquivos só no ano passado, nunca vamos conseguir identificar todo o conteúdo. Com essa API, podemos fazer uma comparação. A partir da inserção de tag em um arquivo, a API nos ajuda a identificar, em tempo real, todos os que apresentam uma semelhança visual. Como resultado, conseguimos incluir tags em mais de 26 milhões de imagens.

Assim, agregamos mais valor às denúncias que enviamos às autoridades para que possam priorizar as análises, conforme necessário. Isso também nos ajuda a identificar quais imagens nunca foram vistas antes. Elas geralmente contêm uma criança que está sendo abusada sexualmente em algum lugar do mundo. Se estamos procurando uma agulha no palheiro, então essa agulha é uma criança que precisa ser resgatada. Com a ferramenta do Google, podemos identificar essas imagens com crianças que precisam de ajuda imediata.

Como isso afetou o bem-estar dos revisores humanos do NCMEC que processam denúncias do CyberTipline e analisam materiais de abuso sexual infantil?

Com essa ferramenta de detecção de materiais de abuso sexual infantil, nossa equipe não precisa ver as mesmas imagens tantas vezes. São imagens de crianças sofrendo abuso, que talvez já estejam na idade adulta. Essas imagens continuam on-line por tempo indeterminado e contribuem para a vitimização contínua desses indivíduos. Portanto, a marcação dessas imagens permite focar as crianças que estão passando por abuso sexual e, ao mesmo tempo, remover as imagens ilegais de vista.

É por isso que nossos funcionários estão aqui. Eles querem ajudar essas crianças. Esse recurso inovador ajudou nossa equipe a preservar o próprio bem-estar ao reduzir a exposição repetida ao mesmo material prejudicial várias vezes.

ncmec-story-image-3.jpg

Como esse trabalho ajuda as empresas de tecnologia como um todo a combater esse tipo de material on-line?

Sabemos que o Google oferece tecnologia de detecção de materiais de abuso sexual infantil para as empresas que apoiam a luta global contra esse tipo de conteúdo, e a própria API Hash Matching tem um impacto direto que vai muito além do NCMEC. Todas as empresas de tecnologia estão aproveitando os benefícios de um processo mais simplificado e eficiente no Centro Nacional. As denúncias do CyberTipline são atendidas e resolvidas com mais rapidez e eficiência do que se não tivéssemos essa ferramenta.

O NCMEC é um recurso central para as empresas de tecnologia, autoridades, vítimas e famílias. Temos uma perspectiva diferenciada sobre a forma como abordamos os problemas e as soluções. Graças ao CyberTipline, estamos bastante cientes do novo tipo de material de abuso sexual infantil que está circulando on-line. Todas essas denúncias são disponibilizadas para as autoridades. Nunca devemos nos esquecer de que, no fim das contas, há crianças reais sendo abusadas e exploradas sexualmente.

Sabemos que mais de 20 mil crianças identificadas foram abusadas sexualmente e tiveram o abuso eternizado em vídeos ou imagens. Essas pessoas sabem que a vitimização ainda não acabou. Algumas ainda são crianças, claro, e outras já são adultas. É por isso que é tão importante fazer o possível para minimizar e reduzir a circulação desse conteúdo.

Uma coisa que pode não estar clara para o público é que há uma tendência de descartar materiais de abuso sexual infantil conhecidos, porque as imagens podem ser consideradas "antigas" ou "já compartilhadas". Sempre lembramos o público de que estamos lidando com crianças reais, e que mais de 20 mil indivíduos estão tentando se curar e recuperar o controle das próprias vidas. Para essas pessoas, é um consolo saber que empresas como o Google fazem o possível para remover as imagens que retratam os piores momentos que viveram.

Se você encontrar materiais ou imagens de abuso sexual infantil on-line, faça uma denúncia ao Centro Nacional para Crianças Desaparecidas e Exploradas ou à autoridade do seu país.

O Google tem o compromisso de combater o abuso e exploração sexual infantil on-line, além de evitar que nossos serviços sejam usados para disseminar materiais com esse tipo de conteúdo. Saiba mais sobre isso no nosso site de combate ao abuso sexual infantil protectingchildren.google.

Voltar ao topo da página