Información y contenido
en los que puedes confiar
En Google, apuntamos a lograr el equilibrio entre mostrar información y proteger a los usuarios y a la sociedad. Nos tomamos esta responsabilidad muy en serio. Nuestro objetivo es brindar acceso a información y contenido confiables. Para ello, protegemos a los usuarios de posibles daños, mostramos información fidedigna y nos asociamos con expertos y organizaciones para crear un Internet más seguro.
Te protegemos de los daños
Prevenimos el abuso
Usamos protecciones basadas en aprendizaje automático para garantizar la seguridad de los usuarios contra el contenido abusivo. Gmail bloquea de forma automática cerca de 10 millones de correos electrónicos de spam de las bandejas de Recibidos cada minuto, y la Búsqueda tiene herramientas para impedir que la función de autocompletar sugiera búsquedas que podrían ser dañinas. La detección automática ayuda a YouTube a quitar contenido dañino de forma eficiente y efectiva a escala. En el segundo trimestre de 2023, el 93% de los videos que incumplían las políticas y se quitaron de YouTube se detectaron primero automáticamente. También implementamos barreras de seguridad en nuestras herramientas de IA generativa para minimizar el riesgo de que se usen para crear contenido dañino.
Además, todos nuestros productos se rigen por un conjunto de políticas que detallan los comportamientos y contenidos inaceptables y aceptables. Nuestras políticas se perfeccionan y actualizan de forma continua para abordar los riesgos emergentes. Cuando se trata de nuestro trabajo en la IA, también utilizamos nuestros principios de la IA para guiar el desarrollo de productos y ayudarnos a probar y evaluar cada aplicación de IA antes de su lanzamiento.
Detectamos contenido dañino
A medida que los agentes maliciosos evolucionan, debemos esforzarnos incluso más para detectar el contenido dañino que llega a nuestros productos. La IA nos ayuda a ampliar la detección de abusos en nuestras plataformas. Los clasificadores potenciados por IA ayudan a marcar con rapidez el contenido potencialmente dañino para quitarlo o derivarlo a un revisor humano. En 2022, la aplicación automatizada de medidas nos ayudó a detectar y bloquear más de 51.2 millones de anuncios que contenían incitación al odio o a la violencia, y declaraciones de salud dañinas. Además, los modelos de lenguaje grandes, un innovador tipo de IA, muestran la promesa de reducir de forma exponencial el tiempo que lleva detectar y evaluar el material dañino, en especial el de los riesgos nuevos y emergentes.
También trabajamos con organizaciones externas que reportan contenido que creen que podría ser dañino. Tanto Google como YouTube reciben comentarios de cientos de participantes del programa Priority Flagger, es decir, organizaciones de todo el mundo expertas en la cultura y el tema en cuestión que nos derivan contenido para que lo revisemos.
Brindamos respuestas apropiadas
Contamos con personas y tecnologías impulsadas por la IA para evaluar posibles incumplimientos de políticas y responder de forma apropiada al contenido que se marca como indebido. Cuando un contenido incumple nuestras políticas, podemos restringirlo, quitarlo, anular su monetización o tomar medidas a nivel de la cuenta para reducir futuros abusos.
En 2022, Google Maps bloqueó o quitó más de 300 millones de contenidos falsos, 115 millones de opiniones que incumplían las políticas y 20 millones de intentos de crear perfiles empresariales falsos. En el segundo trimestre de 2023, YouTube quitó más de 14 millones de canales y 7 millones de videos por incumplir con nuestros Lineamientos de la Comunidad .
Para evaluar el contexto y los matices, y a su vez disminuir el riesgo de eliminaciones desproporcionadas, contamos con alrededor de 20,000 revisores capacitados y expertos que trabajan en diferentes puestos para aplicar nuestras políticas, moderar el contenido y evaluar el contenido marcado en todos los productos y servicios de Google.
Si un creador o publicador cree que tomamos una decisión incorrecta, puede apelar nuestras decisiones.
Brindamos información
confiable
Algoritmos inteligentes
Herramientas para ayudarte a evaluar el contenido
Administración responsable
del contenido en YouTube
Con una combinación de personas y tecnología, quitamos el contenido que incumple nuestras políticas.
Destacamos las fuentes confiables de información y noticias, y les brindamos contexto a los usuarios.
Reducimos la difusión de contenido que se encuentra en el límite de lo aceptable y de información errónea que puede ser dañina para llevar a cabo una administración responsable.
Repartimos los ingresos publicitarios y ofrecemos una variedad de otras fuentes de ingresos para recompensar a los creadores de confianza a través del Programa de socios de YouTube (YPP). En los tres años previos a junio de 2022, se destinaron más de USD 50,000 millones a creadores, artistas y empresas de medios a través del YPP.
Nos asociamos para crear
un Internet más seguro
Intercambiamos conocimientos para mantener tu seguridad
Nos asociamos con expertos de la sociedad civil, el mundo académico y entidades gubernamentales para abordar problemas mundiales como la información errónea, la seguridad de los anuncios, la integridad durante las elecciones y la IA en la moderación del contenido, además de luchar contra la explotación infantil en línea. También publicamos resultados de investigaciones y compartimos conjuntos de datos con el mundo académico para seguir progresando en este campo.
En YouTube, consultamos periódicamente con nuestro Comité Asesor sobre Jóvenes y Familias (un grupo independiente) sobre las actualizaciones de productos y políticas, incluidos nuestros Principios para niños y adolescentes , así como una serie de actualizaciones de productos centradas en la salud mental y el bienestar de los adolescentes.
Trabajamos junto con expertos para combatir el contenido ilegal
También trabajamos con socios para descubrir y compartir indicadores claros de contenido abusivo que permitan quitarlo del ecosistema en general. Todos los años, compartimos millones de hashes de CSAM con el National Center for Missing and Exploited Children de EE.UU. También participamos en Project Lantern, un programa que permite a las empresas de tecnología compartir indicadores de una manera segura y responsable. Además, YouTube cofundó el Global Internet Forum to Counter Terrorism (GIFCT), que une a la industria de la tecnología, entidades gubernamentales, sociedad civil y académicos para contrarrestar las actividades terroristas y extremistas violentas en línea.
Apoyamos a organizaciones dedicadas a la seguridad
Apoyamos a organizaciones de todo el mundo dedicadas a la seguridad en línea y la alfabetización mediática a través de programas sólidos que ofrecen capacitación y materiales, como Sé genial en Internet, Pausa el video de YouTube y Google News Lab. Además, Google y YouTube anunciaron un subsidio de USD 13.2 millones a la International Fact-Checking Network (IFCN) para apoyar a su red, que cuenta con 135 organizaciones de verificación de datos. En conjunto, nuestras colaboraciones dotaron a más de 550,000 periodistas de conocimientos sobre verificación digital, y capacitamos a otros 2.6 millones de periodistas en línea .