El NCMEC, Google y la tecnología de hashing de imágenes


En Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibe todos los años millones de denuncias de material de abuso sexual infantil (CSAM) en línea. Michelle DeLaune, vicepresidenta sénior y directora de operaciones del NCMEC, nos cuenta sobre la evolución de la organización, cómo las empresas de tecnología están intensificando sus esfuerzos para abordar el CSAM y acerca de la API Hash Matching de Google.

¿Puedes contarnos acerca del NCMEC y qué papel desempeñas?


Trabajo en el NCMEC desde hace más de 20 años, por lo que fui testigo de primera mano de la evolución de la organización y de los desafíos y las amenazas para nuestros niños y su seguridad. Comencé mi carrera aquí como analista de CyberTipline.

CyberTipline se creó y lanzó en 1998 como medio para que la sociedad pudiera denunciar potenciales incidentes de explotación infantil. En aquel entonces, recibíamos denuncias de padres preocupados de que un adulto estuviese hablando de manera inapropiada con su hijo en línea y de personas que encontraban sitios web con CSAM. Luego, se aprobó una ley federal en Estados Unidos que requería que las empresas de tecnología de ese país denunciaran ante CyberTipline cualquier posible incidente relacionado con CSAM en sus sistemas.

Al principio, apenas superábamos las 100 denuncias de explotación infantil por semana. Recibimos nuestra primera denuncia de una empresa de tecnología en 2001. Veinte años después, en 2021, recibimos aproximadamente 70,000 nuevas denuncias todos los días. Algunas son de usuarios, pero la gran mayoría de nuestras denuncias provienen de empresas de tecnología.

¿Cómo ayuda el NCMEC a que las empresas de internet luchen contra el CSAM?


Las empresas no están obligadas por la ley a realizar ningún esfuerzo proactivo. Lo único que deben hacer es denunciar el contenido de CSAM si es que lo detectan o se enteran de su existencia. Ese impulso ha aumentado la cantidad de denuncias que recibimos en CyberTipline con el paso del tiempo. Sin embargo, el aumento más significativo se dio en los últimos cinco años. El auge se puede atribuir a las iniciativas que muchas empresas están tomando, de manera voluntaria, para detectar, eliminar y denunciar el CSAM de forma proactiva.

Uno de los programas emblemáticos que llevamos a cabo en el Centro Nacional para Niños Desaparecidos y Explotados son las plataformas de uso compartido de hashes, tanto para la contribución de empresas como de algunas ONG. A través de la plataforma de uso compartido de hashes para las ONG, el NCMEC ofrece a las empresas de tecnología interesadas más de cinco millones de valores de hashes correspondientes a CSAM revisado tres veces para ayudar con sus iniciativas de luchar contra el CSAM en sus redes. Muchas grandes empresas, entre ellas Google, se beneficiaron de esa lista y están tomando medidas proactivas para eliminar el CSAM de sus plataformas. Esa lista también permite que otras ONG prestigiosas dedicadas al bienestar infantil puedan ofrecer sus hashes a la industria de la tecnología mediante la plataforma de hashes del NCMEC, con el fin de evitar que cada empresa de tecnología tenga que interactuar individualmente con cada una de las ONG.

También ofrecemos una plataforma de uso compartido de hashes para empresas, que permite que algunas compañías compartan entre ellas sus propios hashes de CSAM. Nos aseguramos de que cualquier empresa que quiera y pueda detectar de manera proactiva este tipo de material disponga de todas las herramientas necesarias para hacerlo, y de que las empresas puedan compartir entre ellas sus propios hashes de CSAM. Google es el mayor colaborador de esta plataforma, con aproximadamente el 74% del total de hashes en la lista.

Como es de esperar, debido al gran volumen de denuncias que recibimos actualmente, vemos muchas de las mismas imágenes denunciadas varias veces. Esto es totalmente comprensible, ya que las empresas utilizan valores de hashes para detectar material conocido, pero a medida que este aumenta, es más importante que el NCMEC pueda identificar material nuevo que se haya producido y compartido en línea.

La API Hash Matching de Google ayuda al NCMEC a priorizar las denuncias de CyberTipline. ¿Puedes contarnos más sobre cómo empezó este proyecto?


El éxito del programa de uso compartido de hashes creó un desafío completamente nuevo: un volumen que presentaba retos enormes. Una organización sin fines de lucro como el NCMEC no cuenta con la potencia informática para procesar un volumen de esta escala. Fue por eso que recibimos con entusiasmo y agradecimiento la ayuda de Google para diseñar la API Hash Matching.

En 2020, recibimos 21 millones de denuncias de CyberTipline, pero cada una de ellas podía contener varias imágenes y videos. De hecho, esos 21 millones de denuncias contenían cerca de 70 millones de imágenes y videos de abuso sexual infantil. Queda claro que debe haber contenido duplicado en ese volumen, pero por más que el NCMEC pueda detectar con facilidad concordancias exactas, no podríamos detectar coincidencias visualmente similares a escala y en tiempo real para identificar y priorizar imágenes nunca antes vistas. Precisamente, poder detectar este segundo tipo de coincidencias es fundamental cuando intentamos identificar a niños que están siendo víctimas de abuso sexual.

¿Qué beneficios aportó la API Hash Matching al NCMEC?


Tenemos un trabajo muy importante que es presentar esta información crítica tan rápido como sea posible a las fuerzas de seguridad pública. Una de las ventajas de esta herramienta es que nos ofrece una nueva manera de agregar mucho valor a las denuncias de CyberTipline.

Nuestro programa de trabajo consiste en analizar y etiquetar cada imagen y video de abuso sexual infantil. Por ejemplo, usamos etiquetas como "Esto es CSAM", "Esto no es CSAM" o "Es difícil identificar la edad del niño o la persona". Sin embargo, como es de imaginarse, con más de 70 millones de archivos recibidos el año pasado únicamente, sería imposible etiquetarlos todos. Esta API nos permite hacer una comparación. Cuando etiquetamos un archivo, la API nos permite identificar todos los archivos visualmente similares, que después etiquetamos según corresponda en tiempo real. Como resultado, pudimos etiquetar más de 26 millones de imágenes.

De esta manera, agregamos mayor valor a las denuncias que enviamos a las fuerzas de seguridad pública para que puedan priorizar los casos que deberían revisar primero. También nos ayuda a identificar las imágenes que vemos por primera vez. A menudo, esas imágenes incluyen a un niño víctima de abuso sexual en algún lugar del mundo. Si usamos una metáfora, es como encontrar una aguja en un pajar y, en este caso, esa aguja es un niño que necesita ser rescatado. La herramienta de Google nos permitió enfocarnos en esas imágenes con niños que necesitan ayuda inmediata.

¿Cómo influyó en el bienestar de los examinadores manuales del NCMEC que procesan las denuncias de CyberTipline y analizan el contenido de CSAM?


La herramienta de detección de CSAM redujo la necesidad de que nuestro personal tenga que volver a mirar las mismas imágenes una y otra vez. Hay imágenes de niños siendo abusados sexualmente que tal vez ya son adultos en la actualidad. Esas imágenes permanecen en línea de forma perpetua y contribuyen a la victimización continua de esas personas. Por lo tanto, poder etiquetar esas imágenes permite que el personal se enfoque en los niños que fueron víctima de abuso sexual recientemente y, al mismo tiempo, eliminar las imágenes ilegales.

Esa es la razón por la que nuestro personal trabaja con nosotros: quieren ayudar a esos niños. Esto supuso una mejora revolucionaria en la capacidad de nuestro personal para proteger su propio bienestar y no tener que exponerse una y otra vez al mismo material nocivo ya identificado.

En términos generales, ¿cómo ayuda este trabajo a las empresas que luchan contra este tipo de material en línea?


Sabemos que Google ofrece tecnología de detección de CSAM a las empresas a fin de ayudar con la lucha global contra este tipo de contenido, y la API Hash Matching tiene un impacto directo en muchas entidades más allá del NCMEC. Todas las empresas de tecnología aprovechan los beneficios de un proceso más eficiente y optimizado en el Centro Nacional. Las denuncias de CyberTipline se abordan y gestionan de manera más oportuna y con mayor valor agregado que si no tuviésemos esta herramienta.

El NCMEC es un recurso clave para las empresas de tecnología, las fuerzas de seguridad pública, los sobrevivientes y sus familias. Podemos analizar los problemas y las soluciones desde un punto de vista realmente único. Gracias a CyberTipline, estamos al tanto del CSAM existente y recientemente creado que circula en línea. Todas estas denuncias están disponibles para las fuerzas de seguridad públicas. No debemos olvidarnos de que, a fin de cuentas, hay niños reales que fueron víctimas de explotación sexual.

Se identificaron más de 20,000 niños que fueron abusados sexualmente y cuyo abuso quedó grabado para siempre en un video o una imagen. Estos sobrevivientes, algunos todavía niños y otros ya adultos, son muy conscientes de la victimización continua que sufren. Por eso, para nosotros es muy importante hacer todo lo posible para minimizar y reducir la circulación de estas imágenes.

Algo que quizás no está del todo claro para el público es que existe una tendencia a desestimar el CSAM conocido, ya que las imágenes pueden ser consideradas "antiguas" o "recicladas". Sin embargo, les recordamos constantemente a las personas que se trata de niños reales; que esos 20,000 individuos están tratando de sanar y recuperar el control de sus vidas. Estas personas encuentran consuelo al saber que empresas como Google hacen todo lo posible para eliminar las imágenes que retratan los peores momentos de su vida.

Si encuentras imágenes o material de abuso sexual infantil en línea, realiza la denuncia correspondiente ante el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) o ante una entidad de tu región

En Google, nos comprometemos a luchar contra la explotación y el abuso sexual infantil en línea, y a evitar que nuestros servicios se utilicen para difundir material de ese tipo. Obtén más información al respecto en nuestro sitio web de protección infantil.

Avances en seguridad cibernética

Conoce cómo protegemos a más personas en línea que ninguna otra empresa en todo el mundo.

Más información