Información y contenido
en los que puedes confiar

En Google, apuntamos a lograr el equilibrio entre mostrar información y proteger a los usuarios y a la sociedad. Nos tomamos esta responsabilidad muy en serio. Nuestro objetivo es brindar acceso a información y contenido confiables. Para ello, protegemos a los usuarios de posibles daños, mostramos información fidedigna y nos asociamos con expertos y organizaciones para crear una Internet más segura.

Te protegemos del contenido dañino

Mantenemos tanto tu seguridad como la de la sociedad en general con protecciones avanzadas que no solo previenen el contenido ilegal y dañino, sino que también lo detectan y responden a él.

Prevención

Prevenimos el abuso

Para mantener a los usuarios seguros contra el contenido abusivo, usamos protecciones respaldadas por la IA. Gmail bloquea de forma automática cerca de 10 millones de correos electrónicos de spam de las bandejas de entrada cada minuto y la Búsqueda tiene herramientas para impedir que la función de autocompletar sugiera búsquedas que podrían ser dañinas. La detección automática ayuda a YouTube a quitar contenido dañino de forma eficiente y efectiva a escala. En el segundo trimestre de 2023, el 93% de los videos que incumplían las políticas, y se quitaron de YouTube, fueron detectados primero automáticamente. También implementamos barreras de seguridad en nuestras herramientas de IA generativa para minimizar el riesgo de que se usen para crear contenido dañino.

Además, todos nuestros productos se rigen por un conjunto de políticas que detallan los comportamientos y contenidos inaceptables y aceptables. Nuestras políticas se perfeccionan y actualizan de forma continua para abordar los riesgos emergentes. Cuando se trata de nuestro trabajo en la IA, también utilizamos nuestros principios de la IA para guiar el desarrollo de productos y ayudarnos a probar y evaluar cada aplicación de IA antes de su lanzamiento.

Detección

Detectamos contenido dañino

A medida que los agentes maliciosos evolucionan, debemos esforzarnos incluso más para detectar el contenido dañino que llega a nuestros productos. La IA nos ayuda a ampliar la detección de abusos en nuestras plataformas. Los clasificadores potenciados por IA ayudan a marcar con rapidez el contenido potencialmente dañino para quitarlo o derivarlo a un revisor humano. En 2022, la aplicación automatizada nos ayudó a detectar y bloquear más de 51.2 millones de anuncios que contenían incitación al odio o a la violencia, y declaraciones de salud dañinas. Además, los modelos de lenguaje grandes, un innovador tipo de IA, muestran la promesa de reducir de manera exponencial el tiempo que lleva detectar y evaluar el material dañino, en especial el de los riesgos nuevos y emergentes.

También trabajamos con organizaciones externas que marcan contenido que creen que podría ser dañino. Tanto Google como YouTube reciben comentarios de cientos de participantes del programa Priority Flagger, es decir, organizaciones de todo el mundo expertas en la cultura y el tema en cuestión que nos derivan contenido para su revisión.

Respuesta

Brindamos respuestas apropiadas

Contamos con personas y con tecnologías impulsadas por la IA para evaluar posibles incumplimientos de políticas y responder de forma apropiada al contenido que se marca como indebido. Cuando un contenido incumple nuestras políticas, podemos restringirlo, quitarlo, anular su monetización o tomar medidas a nivel de la cuenta para reducir futuros abusos.

En 2022, Google Maps bloqueó o quitó más de 300 millones de contenidos falsos, 115 millones de opiniones que incumplían las políticas y 20 millones de intentos de crear Perfiles de Negocios falsos. En el segundo trimestre de 2023, YouTube quitó más de 14 millones de canales y 7 millones de videos que incumplían con nuestros Lineamientos de la Comunidad.

Para evaluar el contexto y los matices, y, a su vez, disminuir el riesgo de eliminaciones desproporcionadas, contamos con alrededor de 20,000 revisores capacitados y expertos que trabajan en diferentes puestos para aplicar nuestras políticas, moderar el contenido y evaluar el contenido marcado en todos los productos y servicios de Google.

Si un creador o publicador cree que tomamos una medida equivocada, tiene la posibilidad de apelar nuestras decisiones.

Brindamos información confiable

Para generar confianza en los datos y el contenido en nuestras plataformas, ponemos a tu disposición información confiable y las mejores herramientas que te permiten controlar la evaluación del contenido.

Cómo organizamos la información

Algoritmos inteligentes

Nuestros algoritmos, que se actualizan de manera constante, son la esencia de todo lo que hacemos, desde los productos como Google Maps hasta los resultados de la Búsqueda. Estos algoritmos utilizan modelos de lenguaje grandes, además de indicadores como palabras clave o actualidad de los sitios web o el contenido para que encuentres los resultados más útiles y relevantes. Por ejemplo, YouTube destaca contenido de alta calidad de fuentes confiables en sus resultados de búsqueda, recomendaciones y paneles de detalles para ayudar a los usuarios a encontrar información y noticias oportunas, precisas y útiles.

Herramientas para ayudarte a evaluar el contenido

Creamos una serie de funciones para ayudarte a comprender y evaluar el contenido que muestran nuestros algoritmos y herramientas de IA generativa, para así garantizar que tengas más contexto sobre lo que ves en línea.

Administración responsable del contenido en YouTube

YouTube se compromete a fomentar una plataforma responsable en la que puedan confiar los usuarios, creadores y anunciantes que conforman nuestra comunidad.
Obtén más información sobre nuestro enfoque.

Nos asociamos para crear una Internet más segura

Colaboramos proactivamente con expertos y organizaciones, los mantenemos informados y les compartimos nuestros recursos y tecnologías.

Conocimiento compartido

Intercambiamos conocimiento para protegerte

Nos asociamos con expertos de la sociedad civil, el mundo académico y entidades gubernamentales para abordar problemas mundiales, como la información errónea, la seguridad de los anuncios, la integridad durante las elecciones y la IA en la moderación de contenido, además de luchar contra la explotación infantil en línea. También publicamos resultados de investigaciones y lanzamos conjuntos de datos para los académicos con el objetivo de seguir progresando en este campo.

En YouTube, consultamos con frecuencia a nuestro Comité Asesor sobre Jóvenes y Familias independiente acerca de actualizaciones de productos y políticas, incluidos nuestros Principios para niños y adolescentes, además de una serie de actualizaciones de productos centradas en la salud mental y el bienestar de los adolescentes.

Indicadores compartidos

Trabajamos junto con expertos para combatir el contenido ilegal

También trabajamos con socios para descubrir y compartir indicadores claros de contenido abusivo que permitan quitarlos del ecosistema en general. Todos los años, compartimos millones de hashes de CSAM con el National Center for Missing and Exploited Children de EE.UU. También participamos en Project Lantern, un programa que permite a las empresas de tecnología compartir indicadores de una manera segura y responsable. Además, YouTube cofundó el Global Internet Forum to Counter Terrorism (GIFCT), que une a la industria de la tecnología, entidades gubernamentales, sociedad civil y académicos para contrarrestar las actividades terroristas violentas y extremistas en línea.

Recursos compartidos

Apoyamos a las organizaciones dedicadas a la seguridad

Apoyamos a organizaciones de todo el mundo dedicadas a la seguridad en línea y la alfabetización mediática a través de programas sólidos que ofrecen capacitación y materiales, como Sé genial en Internet, Hit Pause de YouTube y Google News Lab. Además, Google y YouTube anunciaron un subsidio de USD 13.2 millones a la International Fact-Checking Network (IFCN) para apoyar a su red, que cuenta con 135 organizaciones de verificación de datos. En conjunto, nuestras colaboraciones dotaron a más de 550,000 periodistas de conocimientos sobre verificación digital, y capacitamos a otros 2.6 millones de periodistas en línea.

Compartimos APIs de seguridad de forma activa

Compartimos herramientas que ayudan a otras organizaciones a proteger a sus usuarios y plataformas contra el contenido dañino.

GSEC DUBLÍN

Asumimos la responsabilidad del contenido en Dublín

Nuestro Centro de Ingeniería de Seguridad de Google para la responsabilidad del contenido en Dublín es un centro regional para expertos de Google que trabajan en combatir la difusión de contenido ilegal y dañino, y un lugar donde podemos compartir este trabajo con legisladores, investigadores y organismos reguladores. La red de Centros de Ingeniería de Seguridad de Google les brinda a nuestros equipos el espacio, la inspiración y la asistencia para desarrollar la nueva generación de soluciones que ayudarán a mejorar la seguridad en línea.

Diseño de una experiencia en Internet útil y más segura

Nunca había sido tan importante el impacto de nuestro trabajo para proporcionar información y contenido confiables. Para evolucionar a la par de los desafíos de moderación de contenido, seguiremos invirtiendo en el desarrollo y la mejora de políticas, productos y procesos que proporcionen tranquilidad a los usuarios y permitan crear una experiencia en línea más segura para todos.

Descubre cómo ayuda Google
a proteger a todo el mundo en línea