Ir para o conteúdo

hero-ncmec.jpg

O NCMEC, a Google e a tecnologia de hash de imagens

Nos Estados Unidos, o National Center for Missing & Exploited Children (NCMEC) recebe milhões de denúncias de material relativo a abuso sexual infantil (CSAM) online todos os anos. Michelle DeLaune, Senior Vice President e Chief Operating Officer do NCMEC, fala sobre a evolução da organização, como as empresas de tecnologia estão a intensificar a luta contra o CSAM e a API Hash Matching da Google.

Partilhar

  • Partilhar no X
  • Partilhar no Facebook
  • Partilhar no LinkedIn
  • ×
    Receber link partilhável

Pode falar-nos sobre o NCMEC e qual é a sua função?

Trabalho no NCMEC há mais de 20 anos. Por isso, testemunhei em primeira mão a evolução da organização e os desafios e ameaças para as nossas crianças e a sua segurança. Comecei a minha carreira aqui como analista da CyberTipline.

A CyberTipline foi criada e lançada em 1998 como uma forma de o público denunciar potenciais incidentes de exploração infantil. Nessa altura, recebíamos denúncias de pais preocupados com o facto de um adulto estar a falar de forma inadequada com os seus filhos online e de pessoas que se deparavam com Websites que continham CSAM. Depois, foi aprovada uma lei federal nos Estados Unidos que exigia que as empresas de tecnologia dos EUA denunciassem ao CyberTipline quaisquer incidentes aparentes de CSAM nos seus sistemas.

Nos primeiros tempos, podíamos ultrapassar as 100 denúncias de exploração infantil por semana. Recebemos a nossa primeira denúncia de uma empresa tecnológica em 2001. Em 2021, recebemos cerca de 70 000 novas denúncias todos os dias. Algumas destas denúncias são feitas pelo público, mas a maioria das nossas denúncias é enviada por empresas de tecnologia.

ncmec-image-1.jpg

Como é que o NCMEC ajuda as empresas online a combater o CSAM?

A lei não exige que as empresas façam qualquer esforço proativo. Simplesmente, se detetarem ou tiverem conhecimento de conteúdo CSAM, têm de o denunciar. Este é o verdadeiro ímpeto para o crescimento instrumental que temos visto na CyberTipline ao longo dos anos. No entanto, nos últimos 5 anos, registou-se o aumento mais significativo de denúncias. Essa explosão pode ser atribuída aos esforços que muitas empresas de tecnologia estão a fazer voluntariamente para detetar, remover e denunciar CSAM de forma proativa.

Um dos programas emblemáticos que operamos no National Center for Missing & Exploited Children são as plataformas de partilha de hashes, tanto para a indústria contribuir como para algumas ONGs selecionadas contribuírem. Através da plataforma de partilha de hashes de ONGs, o NCMEC fornece às empresas de tecnologia interessadas mais de 5 milhões de valores de hashes de CSAM confirmados e triplamente verificados para as ajudar nos esforços de combate ao CSAM nas suas redes. Muitas grandes empresas, incluindo a Google, tiraram partido desta lista e estão a tomar medidas proativas para remover CSAM das suas plataformas. Esta lista também permite que outras ONGs respeitáveis que servem as crianças forneçam os seus hashes à indústria tecnológica através da plataforma de hashes do NCMEC, para tentar minimizar a necessidade de uma empresa tecnológica se dirigir individualmente a cada ONG.

Também oferecemos uma plataforma de partilha de hashes da indústria, que permite que empresas selecionadas partilhem os seus próprios hashes de CSAM entre si. Queremos garantir que todas as empresas que queiram e possam detetar proativamente este material têm todas as ferramentas de que precisam para o fazer e que as empresas podem partilhar os seus próprios hashes de CSAM entre si. A Google é o maior contribuinte para esta plataforma, com aproximadamente 74% do número total de hashes na lista.

Como pode imaginar, com o volume de denúncias que recebemos agora, estamos a ver muitas das mesmas imagens a serem denunciadas várias vezes. Isso é totalmente compreensível, uma vez que as empresas usam valores hash para detetar material conhecido, mas, à medida que o material conhecido aumenta, é mais importante para o NCMEC poder identificar novo material que foi produzido e partilhado online.

ncmec-story-image-2.jpg

A API Hash Matching da Google ajudou o NCMEC a priorizar as denúncias da CyberTipline. Pode contar-nos mais sobre como começou este projeto?

O sucesso do programa de partilha de hashes criou um desafio completamente novo: um volume que apresentava desafios imensos. Uma organização sem fins lucrativos como o NCMEC não tem o poder computacional para escalar até este volume. Foi por isso que ficámos tão ansiosos e gratos pela ajuda da Google na criação da ferramenta da API Hash Matching.

Em 2020, recebemos 21 milhões de denúncias CyberTipline, mas cada uma dessas denúncias pode conter várias imagens e vídeos. Esses 21 milhões de denúncias incluíam, na verdade, cerca de 70 milhões de imagens e vídeos de abuso sexual infantil. Existe claramente duplicação nesse volume e, embora seja fácil para o NCMEC detetar correspondências exatas, não conseguiríamos detetar correspondências visualmente semelhantes à escala e em tempo real para identificar e dar prioridade a imagens nunca antes vistas. Isto é fundamental quando tentamos identificar crianças que estão a ser abusadas sexualmente de forma ativa.

Que vantagens trouxe a API Hash Matching ao NCMEC?

Temos um trabalho muito importante, que é pegar nesta informação crítica e transmiti-la o mais rapidamente possível às autoridades para a aplicação da lei. Uma das vantagens desta ferramenta é que nos dá uma nova forma de acrescentar um enorme valor aos relatórios da CyberTipline.

Temos um programa de trabalho em que estamos a analisar todas as imagens e vídeos de abuso sexual infantil e a etiquetá-los. Por exemplo, "Isto é CSAM", "Isto não é CSAM" ou "É difícil identificar a idade da criança ou da pessoa". No entanto, como pode imaginar, com 70 milhões de ficheiros só no ano passado, nunca vamos conseguir etiquetar todos os ficheiros. Esta API permite-nos fazer uma comparação. Quando etiquetamos um ficheiro, a API permite-nos identificar todos os ficheiros visualmente semelhantes, que depois etiquetamos devidamente e em tempo real. Assim, conseguimos etiquetar mais de 26 milhões de imagens.

Isto ajuda-nos a adicionar mais valor às denúncias que enviamos às autoridades para a aplicação da lei para que possam priorizar as denúncias que devem ver primeiro. Também nos ajuda a identificar imagens que nunca foram vistas antes. Essas imagens contêm, muitas vezes, uma criança em algum lugar do mundo que está a ser vítima de abuso sexual. Se olharmos para o palheiro com a típica agulha, neste caso, essa agulha é uma criança que precisa de ser resgatada. A ferramenta da Google permitiu-nos focar nas imagens que contêm crianças que precisam de ajuda imediata.

E qual foi o impacto no bem-estar dos revisores humanos do NCMEC que tratam denúncias da CyberTipline e analisam conteúdo de CSAM?

Esta ferramenta de deteção de CSAM reduziu a necessidade de o nosso pessoal ver as mesmas imagens repetidamente. Existem imagens de crianças a serem abusadas sexualmente, em que as crianças podem agora estar na idade adulta. Estas imagens ficam online perpetuamente e contribuem para a vitimização contínua dessas pessoas. Por isso, a capacidade de etiquetar essas imagens permite-lhes focar-se nas crianças que representam violência sexual recente, ao mesmo tempo que removem as imagens ilegais, para que não possam ser vistas.

É por isso que a nossa equipa está aqui: quer ajudar essas crianças. Esta foi uma melhoria inovadora na capacidade do nosso pessoal de praticar o bem-estar e não ser repetidamente confrontado com o mesmo material prejudicial conhecido.

ncmec-story-image-3.jpg

Como é que este trabalho ajuda as empresas de tecnologia no seu conjunto a combater este tipo de material online?

Sabemos que a Google fornece tecnologia de deteção de CSAM às empresas para ajudar a apoiar a luta global contra o CSAM, e a API Hash Matching tem um impacto direto em muitas pessoas para além do NCMEC. Todas as empresas de tecnologia estão a beneficiar de um processo mais simplificado e eficiente no National Center. As denúncias da CyberTipline estão a ser tratadas e resolvidas de forma mais oportuna e com mais valor acrescentado do que se não tivéssemos esta ferramenta.

O NCMEC é um recurso central para empresas de tecnologia, autoridades para a aplicação da lei, sobreviventes e respetivas famílias. Temos uma perspetiva incrivelmente única através da qual vemos os problemas e as soluções. Graças à CyberTipline, estamos muito conscientes do CSAM recém-criado e existente que circula online. Todas estas denúncias são disponibilizadas às autoridades para a aplicação da lei. Nunca nos devemos esquecer de que, no fim de contas, temos crianças reais que foram vítimas de abuso e exploração sexual.

Conhecemos mais de 20 000 crianças identificadas que foram vítimas de abuso sexual e cujo abuso foi registado, seja num vídeo ou numa imagem. Estes sobreviventes, alguns ainda crianças e outros já adultos, estão bem cientes da vitimização contínua que enfrentam. É por isso que é tão importante para nós fazer o que podemos para minimizar e reduzir a circulação destas imagens.

Uma coisa que pode não ser clara para o público é que pode haver uma tendência para ignorar o CSAM conhecido, porque as imagens podem ser consideradas "antigas" ou "recirculadas". Estamos constantemente a lembrar as pessoas de que estas são crianças reais e que as mais de 20 000 pessoas estão a tentar curar-se e recuperar o controlo das suas vidas. Encontram grande conforto em saber que empresas como a Google estão a fazer todos os esforços para remover imagens que retratam os piores momentos das suas vidas.

Se encontrar material ou imagens de abuso sexual infantil online, pode denunciá-lo ao National Center for Missing and Exploited Children (NCMEC), ou a uma autoridade apropriada em todo o mundo.

A Google está empenhada em combater o abuso e a exploração sexual infantil online e em impedir que os nossos serviços sejam usados para difundir material relativo a abuso sexual infantil (CSAM). Pode saber mais sobre este tema no nosso Website de proteção das crianças.

Voltar ao início da página