Ir al contenido

Escudo azul con un ícono de una letra G blanca

Información y contenido en los que puedes confiar

En Google, apuntamos a lograr el equilibrio entre mostrar información y proteger a los usuarios y a la sociedad. Nos tomamos esta responsabilidad muy en serio. Nuestro objetivo es brindar acceso a información y contenido confiables. Para ello, protegemos a los usuarios de posibles daños, mostramos información fidedigna y nos asociamos con expertos y organizaciones para crear un Internet más seguro.

Te protegemos de los daños

Mantenemos tanto tu seguridad como la de la sociedad en general con protecciones avanzadas que no solo previenen el contenido ilegal y dañino, sino que también lo detectan y responden a él.

Prevenir

Prevenimos el abuso

Usamos protecciones basadas en aprendizaje automático para garantizar la seguridad de los usuarios contra el contenido abusivo. Gmail bloquea de forma automática cerca de 10 millones de correos electrónicos de spam de las bandejas de Recibidos cada minuto, y la Búsqueda tiene herramientas para impedir que la función de autocompletar sugiera búsquedas que podrían ser dañinas. La detección automática ayuda a YouTube a quitar contenido dañino de forma eficiente y efectiva a escala. En el segundo trimestre de 2023, el 93% de los videos que incumplían las políticas y se quitaron de YouTube se detectaron primero automáticamente. También implementamos barreras de seguridad en nuestras herramientas de IA generativa para minimizar el riesgo de que se usen para crear contenido dañino.

Además, todos nuestros productos se rigen por un conjunto de políticas que detallan los comportamientos y contenidos inaceptables y aceptables. Nuestras políticas se perfeccionan y actualizan de forma continua para abordar los riesgos emergentes. Cuando se trata de nuestro trabajo en la IA, también utilizamos nuestros principios de la IA para guiar el desarrollo de productos y ayudarnos a probar y evaluar cada aplicación de IA antes de su lanzamiento.

Imagen de una tarjeta que atraviesa un cuadrado azul.

Detectar

Detectamos contenido dañino

A medida que los agentes maliciosos evolucionan, debemos esforzarnos incluso más para detectar el contenido dañino que llega a nuestros productos. La IA nos ayuda a ampliar la detección de abusos en nuestras plataformas. Los clasificadores potenciados por IA ayudan a marcar con rapidez el contenido potencialmente dañino para quitarlo o derivarlo a un revisor humano. En 2022, la aplicación automatizada de medidas nos ayudó a detectar y bloquear más de 51.2 millones de anuncios que contenían incitación al odio o a la violencia, y declaraciones de salud dañinas. Además, los modelos de lenguaje grandes, un innovador tipo de IA, muestran la promesa de reducir de forma exponencial el tiempo que lleva detectar y evaluar el material dañino, en especial el de los riesgos nuevos y emergentes.

También trabajamos con organizaciones externas que reportan contenido que creen que podría ser dañino. Tanto Google como YouTube reciben comentarios de cientos de participantes del programa Priority Flagger, es decir, organizaciones de todo el mundo expertas en la cultura y el tema en cuestión que nos derivan contenido para que lo revisemos.

Imagen de lupas que rodean círculos con un candado rojo, una marca de verificación verde, un globo terráqueo azul y un signo de exclamación amarillo.

Responder

Brindamos respuestas apropiadas

Contamos con personas y tecnologías impulsadas por la IA para evaluar posibles incumplimientos de políticas y responder de forma apropiada al contenido que se marca como indebido. Cuando un contenido incumple nuestras políticas, podemos restringirlo, quitarlo, anular su monetización o tomar medidas a nivel de la cuenta para reducir futuros abusos.

En 2022, Google Maps bloqueó o quitó más de 300 millones de contenidos falsos, 115 millones de opiniones que incumplían las políticas y 20 millones de intentos de crear perfiles empresariales falsos. En el segundo trimestre de 2023, YouTube quitó más de 14 millones de canales y 7 millones de videos por incumplir con nuestros Lineamientos de la Comunidad .

Para evaluar el contexto y los matices, y a su vez disminuir el riesgo de eliminaciones desproporcionadas, contamos con alrededor de 20,000 revisores capacitados y expertos que trabajan en diferentes puestos para aplicar nuestras políticas, moderar el contenido y evaluar el contenido marcado en todos los productos y servicios de Google.

Si un creador o publicador cree que tomamos una decisión incorrecta, puede apelar nuestras decisiones.

Escudo azul con la letra G rodeado de círculos; uno con un perfil verde y otro con una estrella amarilla.

Brindamos información
confiable

Para generar confianza en los datos y el contenido en nuestras plataformas, ponemos a tu disposición información confiable y las mejores herramientas que te dan el control de evaluar el contenido.
Ventana del navegador con una marca de verificación en un círculo verde y líneas punteadas conectadas a rectángulos azules.
Cómo organizamos la información

Algoritmos inteligentes

Nuestros algoritmos, que se actualizan de forma constante, son la esencia de todo lo que hacemos, desde los productos como Google Maps hasta los resultados de la Búsqueda. Estos algoritmos utilizan modelos de lenguaje grandes avanzados, además de indicadores como palabras clave o actualidad de los sitios web o el contenido para que encuentres los resultados más útiles y pertinentes. Por ejemplo, YouTube destaca contenido de alta calidad de fuentes confiables en sus resultados de búsqueda, recomendaciones y paneles de detalles para ayudar a los usuarios a encontrar información y noticias oportunas, precisas y útiles.

Herramientas para ayudarte a evaluar el contenido

Creamos una serie de funciones para ayudarte a comprender y evaluar el contenido que muestran nuestros algoritmos y herramientas de IA generativa, para así garantizar que tengas más contexto sobre lo que ves en línea.

Administración responsable
del contenido en YouTube

El compromiso de YouTube es fomentar una plataforma responsable en la que puedan confiar los usuarios, creadores y anunciantes que conforman nuestra comunidad. Obtén más información sobre nuestro enfoque.

Quitar

Con una combinación de personas y tecnología, quitamos el contenido que incumple nuestras políticas.

Ventana del navegador cubierta a la mitad por un esquema de líneas punteadas azules y un cuadrado.

Destacar

Destacamos las fuentes confiables de información y noticias, y les brindamos contexto a los usuarios.

Reducir

Reducimos la difusión de contenido que se encuentra en el límite de lo aceptable y de información errónea que puede ser dañina para llevar a cabo una administración responsable.

Recompensar

Repartimos los ingresos publicitarios y ofrecemos una variedad de otras fuentes de ingresos para recompensar a los creadores de confianza a través del Programa de socios de YouTube (YPP). En los tres años previos a junio de 2022, se destinaron más de USD 50,000 millones a creadores, artistas y empresas de medios a través del YPP.

Nos asociamos para crear
un Internet más seguro

Colaboramos proactivamente con expertos y organizaciones, los mantenemos informados y les compartimos nuestros recursos y tecnologías.

Conocimiento compartido

Intercambiamos conocimientos para mantener tu seguridad

Nos asociamos con expertos de la sociedad civil, el mundo académico y entidades gubernamentales para abordar problemas mundiales como la información errónea, la seguridad de los anuncios, la integridad durante las elecciones y la IA en la moderación del contenido, además de luchar contra la explotación infantil en línea. También publicamos resultados de investigaciones y compartimos conjuntos de datos con el mundo académico para seguir progresando en este campo.

En YouTube, consultamos periódicamente con nuestro Comité Asesor sobre Jóvenes y Familias (un grupo independiente) sobre las actualizaciones de productos y políticas, incluidos nuestros Principios para niños y adolescentes , así como una serie de actualizaciones de productos centradas en la salud mental y el bienestar de los adolescentes.

Un modelo de un átomo con un escudo azul y una G blanca en el centro, rodeado por un candado azul, un maletín verde, un globo terráqueo amarillo y un signo de exclamación rojo.

Indicadores compartidos

Trabajamos junto con expertos para combatir el contenido ilegal

También trabajamos con socios para descubrir y compartir indicadores claros de contenido abusivo que permitan quitarlo del ecosistema en general. Todos los años, compartimos millones de hashes de CSAM con el National Center for Missing and Exploited Children de EE.UU. También participamos en Project Lantern, un programa que permite a las empresas de tecnología compartir indicadores de una manera segura y responsable. Además, YouTube cofundó el Global Internet Forum to Counter Terrorism (GIFCT), que une a la industria de la tecnología, entidades gubernamentales, sociedad civil y académicos para contrarrestar las actividades terroristas y extremistas violentas en línea.

Escudo rojo rodeado de un esquema que muestra ventanas de navegador y un rectángulo rojo con una imagen del globo terráqueo.

Recursos compartidos

Apoyamos a organizaciones dedicadas a la seguridad

Apoyamos a organizaciones de todo el mundo dedicadas a la seguridad en línea y la alfabetización mediática a través de programas sólidos que ofrecen capacitación y materiales, como Sé genial en Internet, Pausa el video de YouTube y Google News Lab. Además, Google y YouTube anunciaron un subsidio de USD 13.2 millones a la International Fact-Checking Network (IFCN) para apoyar a su red, que cuenta con 135 organizaciones de verificación de datos. En conjunto, nuestras colaboraciones dotaron a más de 550,000 periodistas de conocimientos sobre verificación digital, y capacitamos a otros 2.6 millones de periodistas en línea .

Escudo azul con una marca de verificación ubicado por encima de un mapa mundial con líneas y puntos.

Compartimos activamente
tecnología de seguridad

Compartimos interfaces de programación de aplicaciones (APIs) que ayudan a otras organizaciones a proteger sus plataformas y usuarios del contenido dañino.
Edificio en un círculo azul rodeado de círculos de color rojo, amarillo, verde y azul con candados en el centro.
GSEC DUBLÍN

Asumimos la responsabilidad del contenido en Dublín

Nuestro Centro de Ingeniería de Seguridad de Google para el contenido responsable en Dublín es un centro regional para los expertos de Google que trabajan en el combate de la difusión del contenido ilegal y dañino, y un lugar donde podemos compartir este trabajo con legisladores, investigadores y organismos reguladores. La red de Centros de Ingeniería de Seguridad de Google les brinda a nuestros equipos el espacio, la inspiración y el apoyo para desarrollar la nueva generación de soluciones que ayudarán a mejorar la seguridad en línea.

Diseño de una experiencia en internet
útil y más segura

Nunca había sido tan importante el impacto que tiene nuestro trabajo de proporcionar información y contenido confiables. Para evolucionar a la par de los desafíos de moderación de contenido, seguiremos invirtiendo en el desarrollo y la mejora de políticas, productos y procesos que proporcionen tranquilidad a los usuarios y permitan crear una experiencia en línea más segura para todos.