Des informations et contenus
de confiance
Chez Google, nous pensons que l'accès à l'information doit aller de pair avec la protection des utilisateurs et de la société. Nous prenons cette responsabilité très au sérieux. Notre objectif est de permettre aux utilisateurs d'accéder à des informations et des contenus fiables en collaborant avec des experts et des organisations afin de rendre Internet plus sûr.
Nous utilisons des fonctionnalités de protection avancées, pour vous et la société en général, qui non seulement empêchent la diffusion des contenus nuisibles et illégaux, mais permettent aussi de les détecter et d'y répondre.
Prévenir
Prévenir les abus
Nous utilisons des fonctionnalités basées sur l'IA pour protéger les utilisateurs contre les contenus abusifs. Chaque minute, Gmail bloque automatiquement près de 10 millions d'e-mails indésirables, et le moteur de recherche Google empêche la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. Sur YouTube, la détection automatique supprime des contenus nuisibles à grande échelle. Au deuxième trimestre 2023, 93 % des vidéos supprimées pour non-respect des règles ont été détectées automatiquement. Nous intégrons aussi des garde-fous dans nos outils d'IA générative pour minimiser le risque qu'ils soient utilisés pour créer des contenus nuisibles.
Par ailleurs, chacun de nos produits est régi par un ensemble de règles décrivant les contenus et comportements autorisés et non autorisés. Nous adaptons et mettons à jour nos règles de façon continue pour répondre aux nouveaux risques. Lorsqu'il s'agit de notre travail dans l'IA, nous nous appuyons aussi sur nos Principes concernant l'IA pour orienter le développement de nos produits et pour tester et évaluer chaque application basée sur l'IA avant son lancement.
Détecter
Détecter les contenus nuisibles
Les tactiques en évolution constante des acteurs malintentionnés nous poussent à redoubler nos efforts pour détecter les contenus nuisibles qui apparaissent dans nos produits. L'IA nous permet de détecter à grande échelle des abus sur nos plates-formes. Les classificateurs optimisés par l'IA permettent de signaler rapidement les contenus potentiellement nuisibles pour les faire supprimer ou remonter à des réviseurs humains. En 2022, les systèmes automatisés d'application des règles nous ont permis de détecter et bloquer plus de 51,2 millions d'annonces incitant à la haine, présentant des contenus violents ou relayant des allégations dangereuses dans le domaine de la santé. Par ailleurs, les grands modèles de langage, un type d'IA novateur, semblent prometteurs pour réduire de façon exponentielle le délai nécessaire à la détection et l'évaluation des contenus nuisibles, en particulier ceux provenant des risques nouveaux et émergents.
Nous collaborons également avec des organisations externes qui signalent les contenus qu'elles estiment être nuisibles. Chez Google et YouTube, nous tenons compte des commentaires de centaines de signaleurs prioritaires, à savoir des organisations du monde entier qui disposent d'une expertise en la matière, y compris culturelle, et nous font remonter des contenus pour examen.
Répondre
Répondre de façon appropriée
Nous nous appuyons sur l'humain et sur des technologies basées sur l'IA pour évaluer de potentiels cas de non-respect des règles et répondre de façon appropriée lorsque des contenus sont signalés. Si un contenu enfreint nos règles, nous pouvons le restreindre, le supprimer, le démonétiser ou prendre des mesures au niveau du compte pour limiter les futurs abus.
En 2022, Google Maps a bloqué ou supprimé plus de 300 millions de faux contenus, 115 millions d'avis enfreignant les règles et 20 millions de tentatives de création de fausses fiches d'établissement. Au deuxième trimestre 2023, YouTube a supprimé plus de 14 millions de chaînes et 7 millions de vidéos qui ne respectaient pas le Règlement de la communauté.
Pour évaluer le contexte et les nuances, et ainsi réduire le risque de suppression abusive, nous nous appuyons sur environ 20 000 réviseurs spécialisés qui occupent des rôles variés pour faire appliquer nos règles, modérer les contenus et évaluer les contenus signalés dans les produits et services Google.
Si des créateurs ou éditeurs estiment que nous avons commis une erreur, ils peuvent faire appel de nos décisions.
Pour permettre la confiance dans les informations et contenus proposés sur nos plates-formes, nous fournissons des informations fiables et des outils de pointe qui vous donnent le contrôle sur l'évaluation des contenus.
Organiser les informations
Algorithmes intelligents
Nos algorithmes constamment mis à jour sont au cœur de tout ce que nous proposons, qu'il s'agisse de produits comme Google Maps ou des résultats de recherche. Ces algorithmes ont pour objectif de vous fournir les résultats les plus pertinents et les plus utiles. Pour cela, ils utilisent de grands modèles de langage et des signaux comme les mots clés et le niveau d'actualisation des sites Web et contenus. Par exemple, YouTube met en avant des contenus de haute qualité provenant de sources fiables dans ses résultats de recherche, recommandations et panneaux d'informations pour permettre aux utilisateurs de trouver des actualités et informations utiles, exactes et à jour.
Nous proposons une série de fonctionnalités pour vous aider à comprendre et évaluer les contenus que nos algorithmes et outils d'IA générative font apparaître, afin de vous fournir davantage de contexte sur ce que vous voyez sur le Web.
-
Mes préférences publicitaires
Avec Mes préférences publicitaires, vous pouvez facilement gérer votre expérience publicitaire afin de voir plus d'annonces concernant les marques qui vous intéressent, et moins concernant les autres.
-
Fact-checking dans la recherche et Google Actualités
Chaque jour, Google affiche six millions de fois des éléments de fact-checking indépendants. Grâce aux outils Google avancés de fact-checking des images et des résultats, vous pouvez repérer plus facilement les informations incorrectes en ligne.
-
À propos de ce résultat
"À propos de ce résultat" permet d'obtenir des informations de contexte concernant le site Web que vous vous apprêtez à consulter, y compris une description, la date à laquelle il a été indexé pour la première fois et ce que d'autres personnes disent de la source ainsi que du sujet.
-
Marquage par filigrane SynthID
L'outil SynthID permet d'identifier et de marquer par filigrane les images générées par IA. Il s'agit d'une solution technique prometteuse au problème urgent de la désinformation en ligne.
-
À propos de cette image
"À propos de cette image" vous permet d'évaluer la crédibilité et le contexte des images que vous voyez en ligne, grâce à des informations telles que la date à laquelle Google a vu une image pour la première fois et la façon dont d'autres sources l'utilisent et la décrivent.
YouTube s'engage à promouvoir une plate-forme responsable, en laquelle les spectateurs, créateurs et annonceurs qui constituent notre communauté peuvent avoir confiance. En savoir plus sur notre approche
-
Retirer
Nous retirons les contenus qui enfreignent nos règles, en nous appuyant sur l'humain et sur la technologie.
-
Relayer
Nous mettons en avant les sources faisant autorité pour les actualités et l'information, et fournissons des informations contextuelles aux spectateurs.
-
Réduire
Nous gérons les contenus de manière responsable en réduisant la diffusion des contenus à la limite d'une infraction et des informations incorrectes dangereuses.
-
Récompenser
Nous récompensons les créateurs de confiance via le Programme Partenaire YouTube, en partageant les revenus publicitaires et plusieurs autres sources de revenus. Plus de 50 milliards de dollars ont été versés aux créateurs, aux artistes et aux médias entre juin 2019 et juin 2022 par le biais du Programme Partenaire YouTube.
Nous coopérons et partageons nos informations, ressources et technologies avec les experts et les organisations.
Partager nos connaissances
Mettre en commun les connaissances pour vous protéger
Nous travaillons avec des experts de la société civile, le milieu universitaire et les pouvoirs publics pour aborder des problèmes mondiaux comme la désinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et l'exploitation des mineurs en ligne. Nous partageons les conclusions de nos recherches et des ensembles de données avec les universitaires afin de progresser davantage sur ces questions.
Chez YouTube, nous nous concertons régulièrement avec l'équipe indépendante du Comité consultatif pour les jeunes et les familles en ce qui concerne les modifications des produits et des règles. Cela inclut nos Principes pour la jeunesse, ainsi qu'un ensemble de changements concernant les produits centrés sur la santé mentale et le bien-être des adolescents.
Partager les signaux
Collaborer avec des experts pour lutter contre les contenus illégaux
Nous collaborons avec nos partenaires pour découvrir et partager des signaux de contenus abusifs clairs pour en permettre la suppression dans un écosystème plus large. Nous partageons chaque année des millions de hachages de contenus d'abus sexuels sur mineurs avec le National Center for Missing and Exploited Children. Nous participons au programme Project Lantern, qui permet aux entreprises du secteur des technologies de partager des signaux de façon sécurisée et responsable. De plus, YouTube a cofondé le Global Internet Forum to Counter Terrorism (GIFCT), qui rassemble le secteur des technologies, les pouvoirs publics, la société civile et le milieu universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.
Partager les ressources
Soutenir les organisations œuvrant pour la sécurité
Nous soutenons les organisations du monde entier qui œuvrent pour la sécurité en ligne et l'éducation aux médias. Nous proposons, à travers nos programmes, des formations et des ressources, comme Les Super-héros du Net, la chaîne YouTube Hit Pause et Google News Lab. De plus, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars pour l'IFCN (réseau international de fact-checking) afin de soutenir son réseau de 135 organisations de fact-checking. Au total, nos collaborations ont permis de développer les compétences en vérification numérique de plus de 550 000 journalistes, et nous en avons formé 2,6 millions d'autres en ligne.
Nous partageons des interfaces de programmation d'application (API) qui aident d'autres organisations à protéger leurs plates-formes et leurs utilisateurs contre les contenus nuisibles.
-
Kit pour la sécurité des enfants
Nous accordons à des partenaires comme Adobe et Reddit l'accès à nos outils API Content Safety et CSAI Match, ce qui aide leurs réviseurs humains à examiner en priorité les contenus d'abus sexuels sur mineurs. Ces outils permettent à nos partenaires de traiter plus de quatre milliards de contenus chaque mois, et d'ainsi mieux lutter contre les abus sexuels en ligne sur mineurs.
-
API Safe Browsing
Notre API Safe Browsing permet aux applications clientes de comparer des URL aux listes de ressources Web non sécurisées que nous mettons constamment à jour. Cet outil protège chaque jour cinq milliards d'appareils en mettant les utilisateurs en garde contre des sites hébergeant des logiciels malveillants ou indésirables.
-
API liées à la qualité des informations
Nos API liées à la qualité des informations permettent aux éditeurs et plates-formes de lutter contre les contenus nuisibles et toxiques. L'API Perspective traite plus de deux milliards de commentaires par jour, et aide ainsi plus de 850 partenaires à limiter quotidiennement les commentaires toxiques. Le New York Times, Reddit et le Wall Street Journal font partie des organisations qui utilisent l'API Perspective pour gérer les commentaires abusifs sur leurs sites.
-
API Vision
Notre API Vision aide les développeurs à identifier et retirer les contenus nuisibles en leur permettant d'intégrer à leurs applications des fonctionnalités comme l'ajout de descriptions aux images, la reconnaissance optique des caractères (OCR) et l'ajout de tags aux contenus explicites. Avec des données d'entraînement limitées, l'API Vision pourrait classifier correctement 80 % des images.
GSEC Dublin
Un centre dédié à la responsabilité des contenus à Dublin
Le Centre Google de recherche sur la sécurité (GSEC) pour la responsabilité des contenus à Dublin réunit des experts Google pour lutter contre la propagation des contenus illégaux et nuisibles. Ce pôle régional nous permet de partager notre travail avec des décideurs, des chercheurs et des organismes de réglementation. Notre réseau de Centres Google de recherche sur la sécurité offre à nos équipes l'espace, l'inspiration et le soutien nécessaires pour développer les solutions de demain pour un Web plus sûr.
Nos efforts pour fournir des informations et contenus dignes de confiance n'ont jamais autant compté. Pour nous adapter aux défis de la modération de contenus, nous continuerons à investir dans le développement et l'amélioration de règles, produits et processus offrant à tous une expérience en ligne plus sûre et plus sereine.
à la sécurité de tous sur Internet
-
Dans nos produitsDécouvrez comment votre sécurité est préservée à travers tous les produits Google.
-
Sécurité et confidentialitéDécouvrez comment Google protège vos informations privées et vous donne les moyens de les contrôler.
-
Sécurité en familleDécouvrez comment Google vous aide à créer une meilleure expérience sur Internet pour votre famille.
-
CybersécuritéDécouvrez comment nous protégeons plus d'utilisateurs en ligne que n'importe quelle autre entreprise au monde.