Accéder au contenu

Icône de bouclier bleu avec un G blanc

Des informations et du contenu fiables

Chez Google, nous cherchons à concilier l'accès à l'information et la protection des utilisateurs et de la société. Nous prenons cette responsabilité au sérieux. Notre objectif est de fournir un accès à des informations et à du contenu dignes de confiance en protégeant les utilisateurs, en fournissant des informations fiables et en établissant des partenariats avec des experts et des organisations afin de créer un Internet plus sûr.

Vous protéger contre les préjudices

Nous assurons votre sécurité et celle de la société dans son ensemble grâce à des protections avancées qui non seulement préviennent, mais aussi détectent le contenu pernicieux et illégal et y réagissent.

Prévenir

Prévention des abus

Pour protéger les internautes du contenu abusif, nous utilisons des protections soutenues par l'apprentissage automatique. Gmail bloque automatiquement près de 10 millions de pourriels de boîtes de réception chaque minute, et Recherche dispose d'outils pour empêcher la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. La détection automatique aide YouTube à retirer le contenu pernicieux de manière efficace et à grande échelle. Au deuxième trimestre de 2023, 93 % des vidéos non conformes aux politiques qui ont été retirées de YouTube ont été tout d'abord détectées automatiquement. Nous mettons également en place des garde-fous dans nos outils d'IA générative afin de minimiser le risque qu'ils soient utilisés pour créer du contenu pernicieux.

En outre, chacun de nos produits est régi par un ensemble de politiques qui décrit le contenu et les comportements acceptables et inacceptables. Nos politiques sont continuellement affinées et mises à jour pour faire face aux risques émergents. En ce qui concerne notre travail dans le domaine de l'IA, nous nous appuyons également sur nos principes en matière d'IA pour guider le développement des produits et nous aider à tester et à évaluer chaque application d'IA avant son lancement.

Image d'une carte traversant un carré bleu.

Détecter

Détecter le contenu pernicieux

Les tactiques des personnes mal intentionnées évoluant, nous devons redoubler d'efforts pour détecter le contenu pernicieux qui s'introduit dans nos produits. L'IA nous aide à étendre la détection des abus à l'ensemble de nos plateformes. Les classificateurs propulsés par l'IA permettent de signaler rapidement le contenu potentiellement pernicieux pour qu'il soit retiré ou transmis à un réviseur humain. En 2022, l'application obligatoire automatisée nous a aidés à détecter et à bloquer plus de 51,2 millions d'annonces contenant des discours haineux, de la violence et des allégations de santé préjudiciables. En outre, les grands modèles de langage (LLM), un type d'IA révolutionnaire, promettent de réduire de manière exponentielle le temps nécessaire pour détecter et évaluer le matériel préjudiciable, en particulier les risques nouveaux et émergents.

Nous travaillons également avec des organisations extérieures qui signalent le contenu qu'elles jugent pernicieux. Google et YouTube prennent en compte les commentaires de centaines d'informateurs principaux, des organisations du monde entier dotées d'une expertise culturelle et thématique, qui nous transmettent le contenu pour examen.

Image de loupes entourant des cercles avec un cadenas rouge, une coche verte, un globe bleu et un point d'exclamation jaune.

Intervenir

Intervenir de façon appropriée

Nous nous appuyons à la fois sur des personnes et sur des technologies axées sur l'IA pour évaluer les non-respects potentiels des politiques et réagir de manière appropriée au contenu signalé. Lorsqu'un élément de contenu ne respecte pas nos politiques, nous pouvons le restreindre, le retirer, le démonétiser ou prendre des mesures au niveau du compte afin de réduire les abus futurs.

En 2022, Google Maps a bloqué ou retiré plus de 300 millions d'éléments de contenu fallacieux, 115 millions d'avis ne respectant pas les politiques et 20 millions de tentatives de création de faux profils d'entreprise. Au deuxième trimestre de 2023, YouTube a retiré plus de 14 millions de chaînes et 7 millions de vidéos pour non-respect de notre règlement de la communauté .

Pour évaluer le contexte et les nuances, tout en réduisant le risque de retrait excessif, nous faisons appel à environ 20 000 réviseurs formés par des experts, qui travaillent dans différents rôles pour appliquer nos politiques, modérer le contenu et évaluer le contenu signalé dans l'ensemble des produits et des services de Google.

Si un créateur ou un éditeur estime que nous avons pris une mauvaise décision, il peut interjeter appel de nos décisions.

Bouclier G bleu entouré de cercles avec une icône de profil verte et une étoile jaune.

Fournir des informations
fiables

Nous renforçons la confiance à l'égard des informations et du contenu de nos plateformes en fournissant des informations fiables et des outils de pointe qui vous permettent de contrôler l'évaluation du contenu.
Fenêtre de navigateur avec un cercle vert contenant une coche et des lignes pointillées reliées à des rectangles bleus.
Comment nous organisons l'information

Algorithmes intelligents

Nos algorithmes, constamment mis à jour, sont au cœur de tout ce que nous faisons, depuis les produits comme Google Maps jusqu'aux résultats de Recherche. Ces algorithmes utilisent de grands modèles de langage (LLM) et des signaux, tels que des mots clés ou des sites Web et du contenu actualisés, afin que vous puissiez trouver les résultats les plus pertinents et les plus utiles. Par exemple, YouTube met en évidence un contenu de haute qualité provenant de sources fiables dans ses résultats de recherche, ses recommandations et ses panneaux d'information pour aider les utilisateurs à trouver des actualités et des informations opportunes, exactes et utiles.

Des outils pour vous aider à évaluer le contenu

Nous avons créé un certain nombre de fonctionnalités pour vous aider à comprendre et à évaluer le contenu que nos algorithmes et nos outils d'IA générative ont mis en évidence, afin que vous ayez plus de contexte autour de ce que vous voyez en ligne.

Gérer le contenu
de manière responsable sur YouTube

YouTube s'engage à promouvoir une plateforme responsable sur laquelle les spectateurs, les créateurs et les annonceurs qui composent notre communauté peuvent compter. Apprenez-en plus au sujet de notre approche.

Retirer

Nous retirons le contenu qui constitue une violation de nos politiques à l'aide d'une combinaison de modération humaine et technologique.

Fenêtre de navigateur à moitié recouverte par un schéma formé d'une ligne pointillée bleue et d'un carré.

Valoriser

Nous valorisons les sources fiables pour les actualités et les informations et nous fournissons du contexte aux spectateurs.

Réduire

Nous gérons le contenu de manière responsable en réduisant la diffusion de contenu limite et de mésinformation pernicieuse.

Récompenser

Nous récompensons les créateurs dignes de confiance au moyen du Programme de partenaire YouTube (PPY), en partageant les revenus publicitaires et diverses autres sources de revenus. Plus de 50 milliards de dollars ont été versés aux créateurs, aux artistes et aux entreprises de médias au cours des trois années précédant le mois de juin 2022 par le biais du PPY.

Établir des partenariats pour créer
un Internet plus sûr

Nous collaborons avec des experts et des organisations, les informons et partageons nos ressources et nos technologies avec eux, le tout de manière proactive.

Partager des connaissances

Échanger des connaissances pour vous protéger

Nous nous associons à des experts de la société civile, du monde universitaire et des gouvernements pour nous attaquer à des problèmes mondiaux tels que la mésinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et la lutte contre l'exploitation des enfants en ligne. Nous publions également les résultats de nos recherches et mettons des ensembles de données à la disposition des universitaires afin de faire des progrès dans ce domaine.
Chez YouTube, nous consultons régulièrement notre comité consultatif pour la jeunesse et les familles indépendant au sujet des mises à jour de nos produits et de nos politiques, y compris nos principes pour la jeunesse , ainsi qu'une série de mises à jour des produits axées sur la santé mentale et le bien-être des adolescents.

Un modèle d'atome avec un bouclier bleu et un G blanc au centre, entouré d'un cadenas bleu, d'une mallette verte, d'un globe jaune et d'un point d'exclamation rouge.

Partager des signaux

Collaborer avec des experts pour lutter contre le contenu illégal

Nous travaillons également avec des partenaires pour découvrir et partager des signaux évidents de contenu abusif afin de permettre leur retrait de l'ensemble de l'écosystème. Nous partageons chaque année des millions de hachages de MESE avec le National Center for Missing and Exploited Children des États-Unis. Nous participons également au projet Lantern, un programme qui permet aux entreprises technologiques de partager des signaux de manière sûre et responsable. En outre, YouTube a cofondé le Global Internet Forum to Counter Terrorism (forum mondial d'Internet pour la lutte contre le terrorisme), qui réunit l'industrie technologique, le gouvernement, la société civile et le monde universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Bouclier rouge entouré d'un schéma montrant des fenêtres de navigateur et un rectangle rouge avec une image de globe.

Partager des ressources

Soutenir les organisations qui se consacrent à la sécurité

Nous soutenons des organisations du monde entier qui se consacrent à la sécurité en ligne et à l'éducation aux médias par le biais de programmes dynamiques proposant des formations et du matériel, tels que Être au fait d'Internet, Appuyer sur pause de YouTube et le Google News Lab. En outre, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars à l'International Fact-Checking Network (IFCN) pour soutenir son réseau de 135 organisations de vérification des faits. Au total, nos collaborations ont permis à plus de 550 000 journalistes d'acquérir des compétences en matière de vérification numérique, et nous en avons formé 2,6 millions d'autres en ligne.

Bouclier bleu avec une coche superposé sur une carte du monde avec des lignes et des points.

Partager activement
la technologie de sécurité

Nous partageons des interfaces de programmation d'applications (API) qui aident d'autres organisations à protéger leurs plateformes et leurs utilisateurs contre le contenu pernicieux.
Bâtiment dans un cercle bleu entouré de cercles rouge, jaune, vert et bleu contenant chacun un cadenas au milieu.
CISG À DUBLIN

Notre cheval de bataille à Dublin : la responsabilité en matière de contenu

Notre Centre d'ingénierie de la sécurité de Google pour la responsabilité en matière de contenu à Dublin est une plaque tournante régionale pour les experts de Google qui s'efforcent de lutter contre la diffusion du contenu illégal et pernicieux et un lieu où nous pouvons partager ce travail avec les décideurs politiques, les chercheurs et les organismes de réglementation. Notre réseau de Centres d'ingénierie de la sécurité de Google offre à nos équipes l'espace, l'inspiration et le soutien nécessaires pour développer les solutions de nouvelle génération permettant d'améliorer la sécurité en ligne.

Une expérience Internet plus utile et plus sûre
dès la conception

Jamais l'impact de notre travail pour fournir des informations et des contenus dignes de confiance n'a été aussi important. Pour relever les défis de la modération de contenu, nous continuerons à investir dans le développement et l'amélioration des politiques, des produits et des processus qui vous permettent d'avoir l'esprit tranquille et de créer une expérience en ligne plus sûre pour tous.