Des informations et contenus

de confiance

Chez Google, nous pensons que l'accès à l'information doit aller de pair avec la protection des utilisateurs et de la société. Nous prenons cette responsabilité très au sérieux. Notre objectif est de permettre aux utilisateurs d'accéder à des informations et des contenus fiables en collaborant avec des experts et des organisations afin de rendre Internet plus sûr.

Vous protéger contre les contenus nuisibles

Nous utilisons des fonctionnalités de protection avancées, pour vous et la société en général, qui non seulement empêchent la diffusion des contenus nuisibles et illégaux, mais permettent aussi de les détecter et d'y répondre.

Prévenir

Prévenir les abus

Nous utilisons des fonctionnalités basées sur l'IA pour protéger les utilisateurs contre les contenus abusifs. Chaque minute, Gmail bloque automatiquement près de 10 millions d'e-mails indésirables, et le moteur de recherche Google empêche la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. Sur YouTube, la détection automatique supprime des contenus nuisibles à grande échelle. Au deuxième trimestre 2023, 93 % des vidéos supprimées pour non-respect des règles ont été détectées automatiquement. Nous intégrons aussi des garde-fous dans nos outils d'IA générative pour minimiser le risque qu'ils soient utilisés pour créer des contenus nuisibles.

Par ailleurs, chacun de nos produits est régi par un ensemble de règles décrivant les contenus et comportements autorisés et non autorisés. Nous adaptons et mettons à jour nos règles de façon continue pour répondre aux nouveaux risques. Lorsqu'il s'agit de notre travail dans l'IA, nous nous appuyons aussi sur nos Principes concernant l'IA pour orienter le développement de nos produits et pour tester et évaluer chaque application basée sur l'IA avant son lancement.

Détecter

Détecter les contenus nuisibles

Les tactiques en évolution constante des acteurs malintentionnés nous poussent à redoubler nos efforts pour détecter les contenus nuisibles qui apparaissent dans nos produits. L'IA nous permet de détecter à grande échelle des abus sur nos plates-formes. Les classificateurs optimisés par l'IA permettent de signaler rapidement les contenus potentiellement nuisibles pour les faire supprimer ou remonter à des réviseurs humains. En 2022, les systèmes automatisés d'application des règles nous ont permis de détecter et bloquer plus de 51,2 millions d'annonces incitant à la haine, présentant des contenus violents ou relayant des allégations dangereuses dans le domaine de la santé. Par ailleurs, les grands modèles de langage, un type d'IA novateur, semblent prometteurs pour réduire de façon exponentielle le délai nécessaire à la détection et l'évaluation des contenus nuisibles, en particulier ceux provenant des risques nouveaux et émergents.

Nous collaborons également avec des organisations externes qui signalent les contenus qu'elles estiment être nuisibles. Chez Google et YouTube, nous tenons compte des commentaires de centaines de signaleurs prioritaires, à savoir des organisations du monde entier qui disposent d'une expertise en la matière, y compris culturelle, et nous font remonter des contenus pour examen.

Répondre

Répondre de façon appropriée

Nous nous appuyons sur l'humain et sur des technologies basées sur l'IA pour évaluer de potentiels cas de non-respect des règles et répondre de façon appropriée lorsque des contenus sont signalés. Si un contenu enfreint nos règles, nous pouvons le restreindre, le supprimer, le démonétiser ou prendre des mesures au niveau du compte pour limiter les futurs abus.

En 2022, Google Maps a bloqué ou supprimé plus de 300 millions de faux contenus, 115 millions d'avis enfreignant les règles et 20 millions de tentatives de création de fausses fiches d'établissement. Au deuxième trimestre 2023, YouTube a supprimé plus de 14 millions de chaînes et 7 millions de vidéos qui ne respectaient pas le Règlement de la communauté.

Pour évaluer le contexte et les nuances, et ainsi réduire le risque de suppression abusive, nous nous appuyons sur environ 20 000 réviseurs spécialisés qui occupent des rôles variés pour faire appliquer nos règles, modérer les contenus et évaluer les contenus signalés dans les produits et services Google.

Si des créateurs ou éditeurs estiment que nous avons commis une erreur, ils peuvent faire appel de nos décisions.

Fournir des informations fiables

Pour permettre la confiance dans les informations et contenus proposés sur nos plates-formes, nous fournissons des informations fiables et des outils de pointe qui vous donnent le contrôle sur l'évaluation des contenus.

Organiser les informations

Algorithmes intelligents

Nos algorithmes constamment mis à jour sont au cœur de tout ce que nous proposons, qu'il s'agisse de produits comme Google Maps ou des résultats de recherche. Ces algorithmes ont pour objectif de vous fournir les résultats les plus pertinents et les plus utiles. Pour cela, ils utilisent de grands modèles de langage et des signaux comme les mots clés et le niveau d'actualisation des sites Web et contenus. Par exemple, YouTube met en avant des contenus de haute qualité provenant de sources fiables dans ses résultats de recherche, recommandations et panneaux d'informations pour permettre aux utilisateurs de trouver des actualités et informations utiles, exactes et à jour.

Des outils pour vous permettre d'évaluer les contenus

Nous proposons une série de fonctionnalités pour vous aider à comprendre et évaluer les contenus que nos algorithmes et outils d'IA générative font apparaître, afin de vous fournir davantage de contexte sur ce que vous voyez sur le Web.

Gérer les contenus de façon responsable sur YouTube

YouTube s'engage à promouvoir une plate-forme responsable, en laquelle les spectateurs, créateurs et annonceurs qui constituent notre communauté peuvent avoir confiance.
En savoir plus sur notre approche

Coopérer pour rendre Internet plus sûr

Nous coopérons et partageons nos informations, ressources et technologies avec les experts et les organisations.

Partager nos connaissances

Mettre en commun les connaissances pour vous protéger

Nous travaillons avec des experts de la société civile, le milieu universitaire et les pouvoirs publics pour aborder des problèmes mondiaux comme la désinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et l'exploitation des mineurs en ligne. Nous partageons les conclusions de nos recherches et des ensembles de données avec les universitaires afin de progresser davantage sur ces questions.

Chez YouTube, nous nous concertons régulièrement avec l'équipe indépendante du Comité consultatif pour les jeunes et les familles en ce qui concerne les modifications des produits et des règles. Cela inclut nos Principes pour la jeunesse, ainsi qu'un ensemble de changements concernant les produits centrés sur la santé mentale et le bien-être des adolescents.

Partager les signaux

Collaborer avec des experts pour lutter contre les contenus illégaux

Nous collaborons avec nos partenaires pour découvrir et partager des signaux de contenus abusifs clairs pour en permettre la suppression dans un écosystème plus large. Nous partageons chaque année des millions de hachages de contenus d'abus sexuels sur mineurs avec le National Center for Missing and Exploited Children. Nous participons au programme Project Lantern, qui permet aux entreprises du secteur des technologies de partager des signaux de façon sécurisée et responsable. De plus, YouTube a cofondé le Global Internet Forum to Counter Terrorism (GIFCT), qui rassemble le secteur des technologies, les pouvoirs publics, la société civile et le milieu universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Partager les ressources

Soutenir les organisations œuvrant pour la sécurité

Nous soutenons les organisations du monde entier qui œuvrent pour la sécurité en ligne et l'éducation aux médias. Nous proposons, à travers nos programmes, des formations et des ressources, comme Les Super-héros du Net, la chaîne YouTube Hit Pause et Google News Lab. De plus, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars pour l'IFCN (réseau international de fact-checking) afin de soutenir son réseau de 135 organisations de fact-checking. Au total, nos collaborations ont permis de développer les compétences en vérification numérique de plus de 550 000 journalistes, et nous en avons formé 2,6 millions d'autres en ligne.

Partager nos API de sécurité

Nous partageons des outils permettant à d'autres organisations de protéger leurs plates-formes et utilisateurs des contenus nuisibles.

GSEC Dublin

Un centre dédié à la responsabilité des contenus à Dublin

Le Centre Google de recherche sur la sécurité (GSEC) pour la responsabilité des contenus à Dublin réunit des experts Google pour lutter contre la propagation des contenus illégaux et nuisibles. Ce pôle régional nous permet de partager notre travail avec des décideurs, des chercheurs et des organismes de réglementation. Notre réseau de Centres Google de recherche sur la sécurité offre à nos équipes l'espace, l'inspiration et le soutien nécessaires pour développer les solutions de demain pour un Web plus sûr.

Une expérience Internet utile et mieux sécurisée par défaut.

Nos efforts pour fournir des informations et contenus dignes de confiance n'ont jamais autant compté. Pour nous adapter aux défis de la modération de contenus, nous continuerons à investir dans le développement et l'amélioration de règles, produits et processus offrant à tous une expérience en ligne plus sûre et plus sereine.

Découvrez comment Google contribue
à la sécurité de tous sur Internet