Ir para o conteúdo

hero-ncmec.jpg

O NCMEC, a Google e a tecnologia de hash de imagens

Nos Estados Unidos, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, National Center for Missing & Exploited Children) recebe milhões de denúncias de material de abuso sexual infantil (CSAM) online todos os anos. Michelle DeLaune, Senior Vice President e Chief Operating Officer do NCMEC, fala sobre a evolução da organização, como as empresas de tecnologia estão a intensificar a luta contra o CSAM e a API Hash Matching da Google.

Partilhar

Pode falar-nos sobre o NCMEC e qual é a sua função?

Trabalho no NCMEC há mais de 20 anos, por isso, testemunhei em primeira mão a evolução da organização e os desafios e ameaças para as nossas crianças e a respetiva segurança. Comecei a minha carreira aqui como analista da CyberTipline.

A CyberTipline foi criada e lançada em 1998 como uma forma de o público denunciar potenciais incidentes de exploração infantil. Nessa altura, recebíamos denúncias de pais preocupados com o facto de um adulto estar a falar de forma inadequada com os seus filhos online e de pessoas que se deparavam com Websites que continham CSAM. Depois, foi aprovada uma lei federal nos Estados Unidos que exigia que as empresas de tecnologia dos EUA denunciassem ao CyberTipline quaisquer incidentes aparentes de CSAM nos seus sistemas.

Nos primeiros tempos, podíamos ultrapassar as 100 denúncias de exploração infantil por semana. Recebemos o nosso primeiro relatório de uma empresa tecnológica em 2001. Em 2021, recebemos cerca de 70 000 novos relatórios todos os dias. Algumas destas denúncias são feitas pelo público, mas a maioria dos nossos relatórios são enviados por empresas de tecnologia.

ncmec-image-1.jpg

Como é que o NCMEC ajuda as empresas online a combater o CSAM?

A lei não exige que as empresas façam qualquer esforço proativo. Simplesmente, se detetarem ou tomarem conhecimento de conteúdo CSAM, têm de o denunciar. Este é o verdadeiro ímpeto para o crescimento instrumental que temos visto na CyberTipline ao longo dos anos. No entanto, nos últimos 5 anos, registou-se o aumento mais significativo de denúncias. Essa explosão pode ser atribuída aos esforços que muitas empresas de tecnologia estão a tomar voluntariamente para detetar, remover e denunciar proativamente CSAM.

Um dos programas emblemáticos que operamos no Centro Nacional para Crianças Desaparecidas e Exploradas são as plataformas de partilha de hashes, tanto para a indústria contribuir como para algumas ONG selecionadas contribuírem. Através da plataforma de partilha de hashes de ONGs, o NCMEC fornece às empresas de tecnologia interessadas mais de 5 milhões de valores de hashes de CSAM confirmados e triplamente verificados para as ajudar nos seus esforços de combate ao CSAM nas suas redes. Muitas grandes empresas, incluindo a Google, tiraram partido desta lista e estão a tomar medidas proativas para remover CSAM das suas plataformas. Esta lista também permite que outras ONGs respeitáveis que servem as crianças forneçam os seus hashes à indústria tecnológica através da plataforma de hashes do NCMEC, para tentar minimizar a necessidade de uma empresa tecnológica se dirigir individualmente a cada ONG.

Também oferecemos uma plataforma de partilha de hashes da indústria, que permite que empresas selecionadas partilhem os seus próprios hashes de CSAM entre si. Queremos garantir que todas as empresas que queiram e possam detetar proativamente este material têm todas as ferramentas de que precisam para o fazer e que as empresas podem partilhar as suas próprias hashes de CSAM entre si. A Google é o maior contribuinte para esta plataforma, com aproximadamente 74% do número total de hashes na lista.

Como pode imaginar, com o volume de denúncias que recebemos agora, estamos a ver muitas das mesmas imagens a serem denunciadas várias vezes. Isso é totalmente compreensível, uma vez que as empresas usam valores hash para detetar material conhecido, mas, à medida que o material conhecido aumenta, é mais importante para o NCMEC poder identificar novo material que foi produzido e partilhado online.

ncmec-story-image-2.jpg

A API Hash Matching da Google ajudou o NCMEC a priorizar as denúncias da CyberTipline. Pode contar-nos mais sobre como começou este projeto?

O sucesso do programa de partilha de hash criou um desafio completamente novo: um volume que apresentava desafios imensos. Uma organização sem fins lucrativos como o NCMEC não tem o poder computacional para escalar até este volume. Foi por isso que estávamos tão ansiosos e gratos pela ajuda da Google na criação da ferramenta da API Hash Matching.

Em 2020, recebemos 21 milhões de denúncias CyberTipline, mas cada uma dessas denúncias pode conter várias imagens e vídeos. Essas 21 milhões de denúncias incluíram, na verdade, cerca de 70 milhões de imagens e vídeos de abuso sexual infantil. Claramente, existe duplicação nesse volume e, embora seja fácil para o NCMEC detetar correspondências exatas, não conseguiríamos detetar correspondências visualmente semelhantes à escala e em tempo real para identificar e dar prioridade a imagens nunca antes vistas. Isto é fundamental quando tentamos identificar crianças que estão a ser ativamente abusadas sexualmente.

Que vantagens trouxe a API Hash Matching ao NCMEC?

Temos um trabalho muito importante, que é pegar nesta informação crítica e transmiti-la o mais rapidamente possível às autoridades competentes. Uma das vantagens desta ferramenta é que nos dá uma nova forma de acrescentar um enorme valor aos relatórios da CyberTipline.

Temos um programa de trabalho em que estamos a analisar todas as imagens e vídeos de abuso sexual infantil e a etiquetá-los. Por exemplo, "Isto é CSAM", "Isto não é CSAM" ou "É difícil identificar a idade da criança ou da pessoa". No entanto, como pode imaginar, com 70 milhões de ficheiros só no ano passado, nunca vamos conseguir etiquetar todos os ficheiros. Esta API permite-nos fazer uma comparação. Quando etiquetamos um ficheiro, a API permite-nos identificar todos os ficheiros visualmente semelhantes, que depois etiquetamos devidamente e em tempo real. Assim, conseguimos etiquetar mais de 26 milhões de imagens.

Isto ajuda-nos a adicionar mais valor aos relatórios que enviamos às autoridades policiais para que possam que relatórios devem ver primeiro. Também nos ajuda a identificar imagens que nunca foram vistas antes. Essas imagens contêm, muitas vezes, uma criança em algum lugar do mundo que está a ser vítima de abuso sexual. Se estivermos a olhar para o palheiro com a típica agulha, neste caso, essa agulha é uma criança que precisa de ser resgatada. A ferramenta da Google permitiu-nos focar nas imagens que contêm crianças que precisam de ajuda imediata.

E qual foi o impacto no bem-estar dos revisores humanos do NCMEC que processam denúncias da CyberTipline e analisam conteúdo de CSAM?

Esta ferramenta de deteção de CSAM reduziu a necessidade de o nosso pessoal ver as mesmas imagens repetidamente. Existem imagens de crianças a serem abusadas sexualmente, em que as crianças podem agora estar na idade adulta. Estas imagens ficam online perpetuamente e contribuem para a vitimização contínua dessas pessoas. Por isso, a capacidade de etiquetar essas imagens permite-lhes focar-se nas crianças que representam o abuso sexual recente, ao mesmo tempo que removem as imagens ilegais, para que não possam ser vistas.

É por isso que a nossa equipa está aqui: quer ajudar essas crianças. Esta foi uma melhoria inovadora na capacidade do nosso pessoal de praticar o bem-estar e não ser confrontado com o mesmo material prejudicial conhecido repetidamente.

ncmec-story-image-3.jpg

Como é que este trabalho ajuda as empresas de tecnologia no seu conjunto a combater este tipo de material online?

Sabemos que a Google fornece tecnologia de deteção de CSAM às empresas para ajudar a apoiar a luta global contra o CSAM, e a API Hash Matching tem um impacto direto em muitas pessoas para além do NCMEC. Todas as empresas de tecnologia estão a beneficiar de um processo mais simplificado e eficiente no Centro Nacional. As denúncias da CyberTipline estão a ser tratadas e resolvidas de forma mais oportuna e com mais valor acrescentado do que se não tivéssemos esta ferramenta.

O NCMEC é um recurso central para empresas de tecnologia, autoridades policiais, sobreviventes e respetivas famílias. Temos uma perspetiva incrivelmente única através da qual vemos os problemas e as soluções. Graças à CyberTipline, estamos muito conscientes do CSAM recém-criado e existente que circula online. Todos estes relatórios são disponibilizados às autoridades para que se aplique a lei. Nunca nos devemos esquecer de que, afinal, temos crianças reais que foram vítimas de abuso e exploração sexual.

Conhecemos mais de 20 000 crianças identificadas que foram vítimas de abuso sexual e cujo abuso foi registado, seja num vídeo ou numa imagem. Estas sobreviventes, algumas ainda crianças e outras já adultas, estão bem cientes da vitimização contínua que enfrentam. É por isso que é tão importante para nós fazer o que podemos para minimizar e reduzir a circulação destas imagens.

Uma coisa que pode não ser clara para o público é que pode haver uma tendência para ignorar o CSAM conhecido, porque as imagens podem ser consideradas "antigas" ou "repartilhadas". Estamos constantemente a lembrar as pessoas de que estas são crianças reais e que as mais de 20 000 pessoas estão a tentar curar-se e recuperar o controlo das suas vidas. Encontram grande conforto em saber que empresas como a Google estão a fazer todos os esforços para remover imagens que retratam os piores momentos das suas vidas.

Se encontrar material ou imagens de abuso sexual infantil online, pode denunciá-lo ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), ou a uma autoridade apropriada em todo o mundo.

A Google está empenhada em combater o abuso e a exploração sexual infantil online e em impedir que os nossos serviços sejam usados para difundir material relativo a abuso sexual infantil (CSAM).Pode saber mais sobre este assunto no nosso Website de proteção das crianças.

Voltar ao início da página