Información y contenido
en los que puedes confiar.

En Google, nos esforzamos por conseguir un equilibrio entre ofrecer información y proteger a los usuarios y a la sociedad. Nos tomamos muy en serio esta responsabilidad. Nuestro objetivo es proporcionar acceso a información y contenido fiables protegiendo a los usuarios de cualquier daño, proporcionando información fiable y colaborando con expertos y organizaciones para crear una Internet más segura.

Te protegemos de daños.

Os mantenemos a salvo a ti y a la sociedad en general con protecciones avanzadas que no solo evitan, sino que también detectan y responden a contenido dañino e ilegal.

Prevención

Evitamos el abuso

Para mantener a las personas a salvo de contenido inadecuado, utilizamos protecciones basadas en IA. En Gmail bloqueamos automáticamente casi 10 millones de correos de spam de las bandejas de entrada por minuto, y la Búsqueda tiene herramientas para evitar que Autocompletar sugiera consultas potencialmente dañinas. En YouTube, la detección automática nos ayuda a retirar contenido dañino de forma eficiente, eficaz y a gran escala: en el segundo trimestre de 2023, el 93 % de los vídeos que se retiraron de YouTube por infringir las políticas se detectaron por primera vez de forma automática. También implementamos barreras de seguridad en nuestras herramientas de IA generativa para minimizar el riesgo de que se utilicen para crear contenido dañino.

Además, cada uno de nuestros productos se rige por un conjunto de políticas que establece qué contenido y comportamientos se consideran aceptables e inaceptables. Nuestras políticas se perfeccionan y actualizan continuamente para afrontar nuevos riesgos. En cuanto a nuestro trabajo en IA, también nos basamos en nuestros principios para la IA para orientar el desarrollo de productos y probar y evaluar todas las aplicaciones de IA antes de lanzarlas al mercado.

Detección

Detectamos contenido dañino

A medida que evolucionan las tácticas de los agentes perniciosos, debemos esforzarnos aún más para detectar el contenido dañino que llega a nuestros productos. La IA nos ayuda a detectar a gran escala abusos en nuestras plataformas. Los clasificadores basados en IA ayudan a marcar rápidamente el contenido potencialmente dañino para retirarlo o derivarlo a un revisor humano. En el 2022, la automatización de la aplicación de las políticas nos ayudó a detectar y bloquear más de 51,2 millones de anuncios que incitaban al odio y a la violencia, así como afirmaciones relativas a la salud que resultaban perjudiciales. Además, los modelos de lenguaje extenso, un tipo innovador de IA, muestran la promesa de reducir exponencialmente el tiempo que se tarda en detectar y evaluar el posible material dañino, especialmente cuando se trata de nuevos riesgos.

También trabajamos con organizaciones externas que denuncian el contenido que consideran dañino. Tanto en Google como en YouTube recibimos las opiniones de cientos de Alertadores Prioritarios, organizaciones de todo el mundo con experiencia cultural y especializada en la materia que nos derivan contenido para su revisión.

Respuesta

Respondemos adecuadamente

Nos apoyamos tanto en personas como en IA para evaluar posibles infracciones de las políticas en el contenido denunciado y responder a ellas adecuadamente. Si algún contenido infringe nuestras políticas, podemos restringirlo, retirarlo, desmonetizarlo o tomar medidas a nivel de cuenta para reducir futuros abusos.

En el 2022, en Google Maps bloqueamos o retiramos más de 300 millones de elementos de contenido falso y 115 millones de reseñas que infringían las políticas, e impedimos 20 millones de intentos de crear perfiles de empresa ficticios. En el segundo trimestre del 2023, en YouTube eliminamos más de 14 millones de canales y retiramos 7 millones de vídeos por infringir las Normas de la Comunidad.

Para evaluar el contexto y los matices, reduciendo al mismo tiempo el riesgo de retirar contenido indebidamente, contamos con unos 20.000 revisores especializados que desempeñan diversas funciones para hacer cumplir nuestras políticas, moderar contenido y evaluar el contenido denunciado en todos los productos y servicios de Google.

Si un creador o editor considera que nos hemos equivocado, tiene la posibilidad de apelar nuestras decisiones.

Proporcionamos información fiable.

Proporcionamos confianza en la información y el contenido de nuestras plataformas ofreciendo datos fiables y herramientas de vanguardia que te permiten evaluarlo.

Cómo organizamos la información

Algoritmos inteligentes

Nuestros algoritmos, que se actualizan constantemente, son la base de todo lo que hacemos, desde productos como Google Maps hasta los resultados de la Búsqueda. Estos algoritmos utilizan modelos de lenguaje extensos avanzados y señales como palabras clave o actualidad del sitio web y del contenido para que puedas encontrar los resultados más relevantes y útiles. Por ejemplo, YouTube destaca el contenido de alta calidad de fuentes fiables en sus resultados de búsqueda, recomendaciones y paneles informativos para ayudar a los usuarios a encontrar noticias e información oportunas, precisas y útiles.

Herramientas para ayudarte a evaluar contenido

Hemos creado diversas funciones para ayudarte a comprender y evaluar el contenido que nuestros algoritmos y herramientas de IA generativa han sacado a la luz, asegurándonos de que tengas más contexto en torno a lo que ves en Internet.

Gestionamos el contenido de forma responsable en YouTube

YouTube tiene el compromiso de fomentar una plataforma responsable en la que puedan confiar los espectadores, creadores y anunciantes que constituyen nuestra comunidad.
Más información sobre nuestro enfoque.

Nos asociamos para crear un Internet más seguro.

Colaboramos, informamos y compartimos nuestros recursos y tecnologías con expertos y organizaciones de forma proactiva.

Compartir conocimientos

Compartimos conocimientos para protegerte

Colaboramos con expertos de la sociedad civil, el mundo académico y los Gobiernos para abordar cuestiones globales como la desinformación, la seguridad de los anuncios, la integridad de las elecciones, la IA en la moderación de contenido y la lucha contra la explotación infantil en Internet. También publicamos resultados de investigaciones y ponemos conjuntos de datos a disposición del mundo académico para seguir avanzando en este campo.

En YouTube, consultamos regularmente a nuestro Comité Asesor sobre Juventud y Familias independiente acerca de actualizaciones de productos y políticas, incluyendo nuestros principios para jóvenes y una serie de actualizaciones de productos centradas en la salud mental y el bienestar de los adolescentes.

Compartir señales

Trabajamos con expertos para luchar contra el contenido ilegal

También trabajamos con partners para descubrir y compartir señales claras de contenido inadecuado que permitan retirarlo del ecosistema general. Cada año compartimos millones de hashes de material de abuso sexual infantil con el centro nacional para menores desaparecidos y explotados de Estados Unidos. También participamos en el proyecto Lantern, un programa que permite a las empresas tecnológicas compartir este tipo de señales de forma segura y responsable. Además, YouTube cofundó el foro mundial de Internet contra el terrorismo (GIFCT), que reúne a la industria tecnológica, el gobierno, la sociedad civil y el mundo académico para contrarrestar la actividad terrorista y extremista violenta en la red.

Compartir recursos

Apoyamos a organizaciones dedicadas a la seguridad

Apoyamos a organizaciones de todo el mundo dedicadas a la seguridad en Internet y a la alfabetización mediática mediante sólidos programas que ofrecen formación y materiales, como Sé genial en Internet, Hit Pause de YouTube y Google News Lab. Además, en Google y YouTube anunciamos una ayuda de 13,2 millones de dólares a la red internacional de verificación de datos (International Fact-Checking Network) para apoyar la labor de sus 135 organizaciones dedicadas a este fin. En conjunto, nuestras colaboraciones han permitido enseñar técnicas de verificación digital a más de 550.000 periodistas, y hemos formado a otros 2,6 millones online.

Compartimos activamente APIs de seguridad

Compartimos herramientas que ayudan a otras organizaciones a proteger sus plataformas y usuarios frente al contenido dañino.

GSEC Dublín

Asumimos la responsabilidad del contenido desde Dublín

Nuestro Centro de Ingeniería de Seguridad de Google de Dublín es un centro regional especializado en responsabilidad del contenido en el que los expertos de Google trabajan para luchar contra la propagación de contenido ilegal y dañino y un lugar en el que podemos compartir esta labor con legisladores, investigadores y reguladores. Nuestra red de Centros de Ingeniería de Seguridad de Google ofrece a nuestros equipos el espacio, la inspiración y el apoyo para que desarrollen soluciones de última generación que aumenten la seguridad online.

Una experiencia en Internet más útil y segura desde el diseño.

El impacto de nuestro trabajo para proporcionar información y contenido fiables nunca ha sido tan importante. Para evolucionar ante los retos que plantea la moderación de contenido, seguiremos invirtiendo en desarrollar y mejorar políticas, productos y procesos que te proporcionen tranquilidad y creen una experiencia en Internet más segura para todos.

Descubre cómo Google ayuda a que
todos estemos protegidos en Internet.