Información y contenido
en los que puedes confiar
En Google, nos esforzamos por conseguir un equilibrio entre ofrecer información y proteger a los usuarios y a la sociedad. Nos tomamos muy en serio esta responsabilidad. Nuestro objetivo es proporcionar acceso a información y contenido fiables, protegiendo a los usuarios de cualquier riesgo, proporcionando información fiable y colaborando con expertos y organizaciones para crear una experiencia en Internet más segura.
Te protegemos de contenido dañino
Evitamos el abuso
Para mantener a las personas a salvo del contenido inadecuado, utilizamos protecciones basadas en aprendizaje automático. En Gmail bloqueamos automáticamente casi 10 millones de correos de spam de las bandejas de entrada por minuto, y la Búsqueda tiene herramientas para evitar que Autocompletar sugiera consultas potencialmente dañinas. En YouTube, la detección automática nos ayuda a retirar contenido dañino de forma eficiente, eficaz y a gran escala: en el segundo trimestre de 2023, el 93 % de los vídeos que se retiraron de YouTube por infringir las políticas se detectaron por primera vez de forma automática. También implementamos barreras de seguridad en nuestras herramientas de IA generativa para minimizar el riesgo de que se utilicen para crear contenido dañino.
Además, cada uno de nuestros productos se rige por un conjunto de políticas que establece qué contenido y comportamientos se consideran aceptables e inaceptables. Nuestras políticas se perfeccionan y actualizan continuamente para afrontar nuevos riesgos. En cuanto a nuestro trabajo en IA, también nos basamos en nuestros principios para la IA a la hora de orientar el desarrollo de productos y probar y evaluar todas las aplicaciones de IA antes de lanzarlas al mercado.
Detectamos el contenido dañino
A medida que evolucionan las tácticas de los agentes perniciosos, debemos esforzarnos aún más para detectar el contenido dañino que llega a nuestros productos. La IA nos ayuda a detectar a gran escala abusos en nuestras plataformas. Los clasificadores basados en IA ayudan a marcar rápidamente el contenido potencialmente dañino para retirarlo o derivarlo a un revisor humano. En el 2022, la automatización de la aplicación de las políticas nos ayudó a detectar y bloquear más de 51,2 millones de anuncios que incitaban al odio y a la violencia, así como afirmaciones relativas a la salud que resultaban perjudiciales. Además, los modelos de lenguaje extensos, un tipo innovador de IA, muestran la promesa de reducir exponencialmente el tiempo que se tarda en detectar y evaluar el posible material dañino, especialmente cuando se trata de nuevos riesgos.
También trabajamos con organizaciones externas que denuncian el contenido que consideran dañino. Tanto en Google como en YouTube recibimos las opiniones de cientos de Alertadores Prioritarios, organizaciones de todo el mundo con experiencia cultural y especializada en la materia que nos derivan contenido para su revisión.
Respondemos adecuadamente
Nos apoyamos tanto en personas como en IA para evaluar posibles infracciones de las políticas en el contenido denunciado y responder a ellas adecuadamente. Si algún contenido infringe nuestras políticas, podemos restringirlo, retirarlo, desmonetizarlo o tomar medidas a nivel de cuenta para reducir futuros abusos.
En el 2022, en Google Maps bloqueamos o retiramos más de 300 millones de elementos de contenido falso y 115 millones de reseñas que infringían las políticas, e impedimos 20 millones de intentos de crear perfiles de empresa ficticios. En el segundo trimestre del 2023, en YouTube retiramos más de 14 millones de canales y 7 millones de vídeos por infringir las Normas de la Comunidad .
Para evaluar el contexto y los matices, reduciendo al mismo tiempo el riesgo de retirar contenido indebidamente, contamos con unos 20.000 revisores especializados que desempeñan diversas funciones para hacer cumplir nuestras políticas, moderar contenido y evaluar el contenido denunciado en todos los productos y servicios de Google.
Si un creador o editor cree que nos hemos equivocado, tiene la posibilidad de apelar nuestras decisiones.
Proporcionamos información
fiable
Algoritmos inteligentes
Herramientas para ayudarte a evaluar contenido
Gestionamos el contenido
de forma responsable en YouTube
Retiramos el contenido que infringe nuestras políticas, tanto por medios humanos como tecnológicos.
Destacamos las fuentes autorizadas de noticias e información, y proporcionamos contexto a los usuarios.
Gestionamos responsablemente el contenido reduciendo la difusión de contenido cuestionable y la desinformación perjudicial.
Recompensamos a los creadores de confianza a través del Programa para Partners de YouTube (YPP), compartiendo los ingresos procedentes de la publicidad y de otras fuentes. En los tres años anteriores a junio del 2022, creadores, artistas y empresas de medios de comunicación recibieron más de 50.000 millones de dólares a través del YPP.
Colaboramos para crear
un Internet más seguro
Intercambiamos conocimientos para protegerte
Colaboramos con expertos de la sociedad civil, el mundo académico y los Gobiernos para abordar cuestiones globales como la desinformación, la seguridad de los anuncios, la integridad de las elecciones, la IA en la moderación de contenido y la lucha contra la explotación infantil en Internet. También publicamos resultados de investigaciones y ponemos conjuntos de datos a disposición del mundo académico para seguir avanzando en este campo.
En YouTube, consultamos periódicamente a nuestro Comité Asesor sobre Juventud y Familias independiente sobre las actualizaciones de productos y políticas, incluyendo nuestros Principios para los jóvenes y una serie de actualizaciones de productos centradas en la salud mental y el bienestar de los adolescentes.
Trabajamos con expertos para luchar contra el contenido ilegal
También trabajamos con partners para descubrir y compartir señales claras de contenido inadecuado que permitan retirarlo del ecosistema general. Cada año compartimos millones de hashes de material de abuso sexual infantil con el centro nacional para menores desaparecidos y explotados de Estados Unidos. También participamos en el proyecto Lantern, un programa que permite a las empresas tecnológicas compartir este tipo de señales de forma segura y responsable. Además, YouTube cofundó el foro mundial de Internet contra el terrorismo (GIFCT), que reúne a la industria tecnológica, el gobierno, la sociedad civil y el mundo académico para contrarrestar la actividad terrorista y extremista violenta en la red.
Apoyamos a organizaciones dedicadas a la seguridad
Apoyamos a organizaciones de todo el mundo dedicadas a la seguridad en Internet y a la alfabetización mediática mediante sólidos programas que ofrecen formación y materiales, como Sé genial en Internet, Hit Pause de YouTube y Google News Lab. Además, en Google y YouTube anunciamos una ayuda de 13,2 millones de dólares a la red internacional de verificación de datos (International Fact-Checking Network) para apoyar la labor de sus 135 organizaciones dedicadas a este fin. En conjunto, nuestras colaboraciones han permitido enseñar técnicas de verificación digital a más de 550.000 periodistas, y hemos formado a otros 2,6 millones online.