Des informations et du contenu
fiables
Chez Google, nous cherchons à concilier l'accès à l'information et la protection des utilisateurs et de la société. Nous prenons cette responsabilité au sérieux. Notre objectif est de fournir un accès à des informations et à du contenu dignes de confiance en protégeant les utilisateurs, en fournissant des informations fiables et en établissant des partenariats avec des experts et des organisations afin de créer un Internet plus sûr.
Vous protéger contre les préjudices
Prévention des abus
Pour protéger les internautes du contenu abusif, nous utilisons des protections soutenues par l'apprentissage automatique. Gmail bloque automatiquement près de 10 millions de pourriels de boîtes de réception chaque minute, et Recherche dispose d'outils pour empêcher la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. La détection automatique aide YouTube à retirer le contenu pernicieux de manière efficace et à grande échelle. Au deuxième trimestre de 2023, 93 % des vidéos non conformes aux politiques qui ont été retirées de YouTube ont été tout d'abord détectées automatiquement. Nous mettons également en place des garde-fous dans nos outils d'IA générative afin de minimiser le risque qu'ils soient utilisés pour créer du contenu pernicieux.
En outre, chacun de nos produits est régi par un ensemble de politiques qui décrit le contenu et les comportements acceptables et inacceptables. Nos politiques sont continuellement affinées et mises à jour pour faire face aux risques émergents. En ce qui concerne notre travail dans le domaine de l'IA, nous nous appuyons également sur nos principes en matière d'IA pour guider le développement des produits et nous aider à tester et à évaluer chaque application d'IA avant son lancement.
Détecter le contenu pernicieux
Les tactiques des personnes mal intentionnées évoluant, nous devons redoubler d'efforts pour détecter le contenu pernicieux qui s'introduit dans nos produits. L'IA nous aide à étendre la détection des abus à l'ensemble de nos plateformes. Les classificateurs propulsés par l'IA permettent de signaler rapidement le contenu potentiellement pernicieux pour qu'il soit retiré ou transmis à un réviseur humain. En 2022, l'application obligatoire automatisée nous a aidés à détecter et à bloquer plus de 51,2 millions d'annonces contenant des discours haineux, de la violence et des allégations de santé préjudiciables. En outre, les grands modèles de langage (LLM), un type d'IA révolutionnaire, promettent de réduire de manière exponentielle le temps nécessaire pour détecter et évaluer le matériel préjudiciable, en particulier les risques nouveaux et émergents.
Nous travaillons également avec des organisations extérieures qui signalent le contenu qu'elles jugent pernicieux. Google et YouTube prennent en compte les commentaires de centaines d'informateurs principaux, des organisations du monde entier dotées d'une expertise culturelle et thématique, qui nous transmettent le contenu pour examen.
Intervenir de façon appropriée
Nous nous appuyons à la fois sur des personnes et sur des technologies axées sur l'IA pour évaluer les non-respects potentiels des politiques et réagir de manière appropriée au contenu signalé. Lorsqu'un élément de contenu ne respecte pas nos politiques, nous pouvons le restreindre, le retirer, le démonétiser ou prendre des mesures au niveau du compte afin de réduire les abus futurs.
En 2022, Google Maps a bloqué ou retiré plus de 300 millions d'éléments de contenu fallacieux, 115 millions d'avis ne respectant pas les politiques et 20 millions de tentatives de création de faux profils d'entreprise. Au deuxième trimestre de 2023, YouTube a retiré plus de 14 millions de chaînes et 7 millions de vidéos pour non-respect de notre règlement de la communauté .
Pour évaluer le contexte et les nuances, tout en réduisant le risque de retrait excessif, nous faisons appel à environ 20 000 réviseurs formés par des experts, qui travaillent dans différents rôles pour appliquer nos politiques, modérer le contenu et évaluer le contenu signalé dans l'ensemble des produits et des services de Google.
Si un créateur ou un éditeur estime que nous avons pris une mauvaise décision, il peut interjeter appel de nos décisions.
Fournir des informations
fiables
Algorithmes intelligents
Des outils pour vous aider à évaluer le contenu
Gérer le contenu
de manière responsable sur YouTube
Nous retirons le contenu qui constitue une violation de nos politiques à l'aide d'une combinaison de modération humaine et technologique.
Nous valorisons les sources fiables pour les actualités et les informations et nous fournissons du contexte aux spectateurs.
Nous gérons le contenu de manière responsable en réduisant la diffusion de contenu limite et de mésinformation pernicieuse.
Nous récompensons les créateurs dignes de confiance au moyen du Programme de partenaire YouTube (PPY), en partageant les revenus publicitaires et diverses autres sources de revenus. Plus de 50 milliards de dollars ont été versés aux créateurs, aux artistes et aux entreprises de médias au cours des trois années précédant le mois de juin 2022 par le biais du PPY.
Établir des partenariats pour créer
un Internet plus sûr
Échanger des connaissances pour vous protéger
Nous nous associons à des experts de la société civile, du monde universitaire et des gouvernements pour nous attaquer à des problèmes mondiaux tels que la mésinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et la lutte contre l'exploitation des enfants en ligne. Nous publions également les résultats de nos recherches et mettons des ensembles de données à la disposition des universitaires afin de faire des progrès dans ce domaine.
Chez YouTube, nous consultons régulièrement notre comité consultatif pour la jeunesse et les familles indépendant au sujet des mises à jour de nos produits et de nos politiques, y compris nos principes pour la jeunesse , ainsi qu'une série de mises à jour des produits axées sur la santé mentale et le bien-être des adolescents.
Collaborer avec des experts pour lutter contre le contenu illégal
Nous travaillons également avec des partenaires pour découvrir et partager des signaux évidents de contenu abusif afin de permettre leur retrait de l'ensemble de l'écosystème. Nous partageons chaque année des millions de hachages de MESE avec le National Center for Missing and Exploited Children des États-Unis. Nous participons également au projet Lantern, un programme qui permet aux entreprises technologiques de partager des signaux de manière sûre et responsable. En outre, YouTube a cofondé le Global Internet Forum to Counter Terrorism (forum mondial d'Internet pour la lutte contre le terrorisme), qui réunit l'industrie technologique, le gouvernement, la société civile et le monde universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.
Soutenir les organisations qui se consacrent à la sécurité
Nous soutenons des organisations du monde entier qui se consacrent à la sécurité en ligne et à l'éducation aux médias par le biais de programmes dynamiques proposant des formations et du matériel, tels que Être au fait d'Internet, Appuyer sur pause de YouTube et le Google News Lab. En outre, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars à l'International Fact-Checking Network (IFCN) pour soutenir son réseau de 135 organisations de vérification des faits. Au total, nos collaborations ont permis à plus de 550 000 journalistes d'acquérir des compétences en matière de vérification numérique, et nous en avons formé 2,6 millions d'autres en ligne.