Des informations et contenus
fiables
Chez Google, nous pensons que l'accès à l'information doit aller de pair avec la protection des utilisateurs et de la société. Nous prenons cette responsabilité très au sérieux. Notre objectif est de permettre aux utilisateurs d'accéder à des informations et contenus fiables en les protégeant contre les contenus nuisibles, en leur fournissant des informations dignes de confiance, et en collaborant avec des experts et des organisations afin de rendre Internet plus sûr.
Vous protéger contre les contenus nuisibles
Prévenir les utilisations abusives
Nous utilisons des fonctionnalités basées sur le machine learning ("apprentissage automatique") pour protéger les utilisateurs contre les contenus abusifs. Ainsi, Gmail bloque automatiquement près de 10 millions d'e-mails indésirables chaque minute. La recherche Google dispose d'outils qui empêchent la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. Sur YouTube, la détection automatique contribue à supprimer des contenus nuisibles de façon efficace et à grande échelle. Au deuxième trimestre 2023, 93 % des vidéos supprimées pour non-respect des règles avaient été détectées automatiquement. Nous intégrons aussi des garde-fous dans nos outils d'IA générative afin de minimiser le risque qu'ils soient utilisés pour créer des contenus nuisibles.
Par ailleurs, chacun de nos produits est régi par un ensemble de règles décrivant les contenus et comportements autorisés et non autorisés. Nous adaptons et mettons à jour nos règles de façon continue pour répondre aux nouveaux risques. Et dans notre travail avec l'IA, nous nous appuyons également sur nos Principes concernant l'IA afin d'orienter le développement de nos produits, et de tester et évaluer chaque application basée sur l'IA avant son lancement.
Détecter les contenus nuisibles
Les tactiques en constante évolution des personnes malintentionnées nous poussent à redoubler d'efforts pour détecter les contenus nuisibles qui apparaissent dans nos produits. Nous mettons donc à profit l'IA afin de détecter à grande échelle les utilisations abusives de nos plates-formes. Les classificateurs optimisés par l'IA permettent de signaler rapidement les contenus potentiellement nuisibles pour les faire supprimer ou remonter à des réviseurs humains. En 2022, les systèmes automatisés d'application des règles nous ont permis de détecter et bloquer plus de 51,2 millions d'annonces incitant à la haine, présentant des contenus violents ou relayant des allégations dangereuses dans le domaine de la santé. Par ailleurs, les grands modèles de langage, un type d'IA novateur, semblent prometteurs pour réduire de façon exponentielle le délai nécessaire à la détection et l'évaluation des contenus nuisibles, en particulier pour les risques nouveaux et émergents.
Nous collaborons également avec des organisations externes qui signalent les contenus qu'elles estiment être nuisibles. Dans l'écosystème Google et YouTube, nous nous appuyons sur les commentaires de centaines d'organisations du monde entier appelées signaleurs prioritaires. Ces organisations disposent d'une expertise culturelle et spécialisée dans leur domaine, et nous transmettent des contenus pour examen.
Répondre de façon appropriée
Nous nous appuyons sur l'humain et sur des technologies basées sur l'IA pour évaluer de potentiels cas de non-respect des règles et répondre de façon appropriée lorsque des contenus sont signalés. Si un contenu enfreint nos règles, nous pouvons le restreindre, le supprimer, le démonétiser ou prendre des mesures au niveau du compte pour limiter les futures utilisations abusives.
En 2022, Google Maps a bloqué ou supprimé plus de 300 millions de faux contenus, 115 millions de contenus signalés pour non-respect des règles et 20 millions de tentatives de création de fausses fiches d'établissement. Au deuxième trimestre 2023, YouTube a supprimé plus de 14 millions de chaînes et 7 millions de vidéos qui ne respectaient pas le Règlement de la communauté .
Pour évaluer le contexte et les nuances tout en réduisant le risque de suppression excessive, nous nous appuyons sur environ 20 000 examinateurs spécialisés qui, au sein de différents rôles, appliquent nos règles, modèrent les contenus et évaluent les contenus signalés sur les produits et services Google.
Si un créateur ou un éditeur estime que nous avons commis une erreur, il peut faire appel de nos décisions.
Fournir des informations
fiables
Algorithmes intelligents
Des outils pour vous permettre d'évaluer les contenus
Gérer les contenus
de façon responsable sur YouTube
Nous supprimons les contenus qui enfreignent nos règles, en nous appuyant sur l'humain et sur la technologie.
Nous mettons en avant les sources faisant autorité pour les actualités et l'information, et fournissons des informations contextuelles aux spectateurs.
Nous gérons les contenus de manière responsable en réduisant la diffusion des contenus à la limite d'une infraction et des informations incorrectes dangereuses.
Nous récompensons les créateurs de confiance via le Programme Partenaire YouTube, en partageant les revenus publicitaires et plusieurs autres sources de revenus. Plus de 50 milliards de dollars ont été versés aux créateurs, aux artistes et aux médias entre juin 2019 et juin 2022 par le biais du Programme Partenaire YouTube.
Collaborer
pour rendre Internet plus sûr
Mettre en commun les connaissances pour vous protéger
Nous travaillons avec des experts de la société civile, le milieu universitaire et les pouvoirs publics pour aborder des problèmes mondiaux comme les informations incorrectes, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et l'exploitation des enfants en ligne. Nous publions également les résultats de nos recherches et mettons des ensembles de données à la disposition des universitaires afin de faire progresser encore davantage ces questions.
Chez YouTube, nous consultons régulièrement le Comité consultatif indépendant pour les jeunes et les familles au sujet des modifications de nos produits et règles, y compris nos Principes pour la jeunesse ainsi qu'une série de changements dans nos produits axés sur la santé mentale et le bien-être des adolescents.
Collaborer avec des experts pour lutter contre les contenus illégaux
Nous collaborons avec nos partenaires afin de détecter et partager des signaux de contenus abusifs clairs, et de supprimer ces contenus au-delà de notre seul écosystème. Nous partageons chaque année des millions de hachages de contenus d'abus sexuels sur mineurs avec l'organisation américaine National Center for Missing and Exploited Children. Nous participons au programme Project Lantern, qui permet aux entreprises du secteur des technologies de partager des signaux de façon sécurisée et responsable. De plus, YouTube a cofondé le Global Internet Forum to Counter Terrorism (GIFCT), qui rassemble le secteur des technologies, les pouvoirs publics, la société civile et le milieu universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.
Soutenir les organisations œuvrant pour la sécurité
Nous soutenons les organisations du monde entier qui œuvrent pour la sécurité en ligne et l'éducation aux médias. Pour cela, nous proposons des programmes efficaces offrant des formations et des ressources comme Les Super-héros du Net, la chaîne YouTube Appuyez Sur Pause et Google News Lab. Google et YouTube ont par ailleurs annoncé une subvention de 13,2 millions de dollars au profit de l'International Fact-Checking Network (IFCN, réseau international de fact-checking) afin de soutenir son réseau composé de 135 organisations de fact-checking. Au total, nos collaborations ont permis de développer les compétences en vérification numérique de plus de 550 000 journalistes, et nous en avons formé 2,6 millions d'autres en ligne.