Des informations et du contenu
fiables.
Chez Google, nous cherchons à concilier l'accès à l'information et la protection des utilisateurs et de la société. Nous prenons cette responsabilité au sérieux. Notre objectif est de fournir un accès à des informations et à du contenu dignes de confiance en protégeant les utilisateurs, en fournissant des informations fiables et en établissant des partenariats avec des experts et des organisations afin de créer un Internet plus sûr.
Nous assurons votre sécurité et celle de la société dans son ensemble grâce à des protections avancées qui non seulement préviennent, mais aussi détectent les contenus pernicieux et illégaux et y réagissent.
Prévenir
Empêcher des abus
Pour protéger les internautes du contenu abusif, nous utilisons des protections soutenues par l'IA. Gmail bloque automatiquement près de 10 millions de pourriels de boîtes de réception chaque minute, et Recherche dispose d'outils pour empêcher la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. La détection automatique aide YouTube à retirer le contenu pernicieux de manière efficace et à grande échelle. Au deuxième trimestre de 2023, 93 % des vidéos non conformes aux politiques qui ont été retirées de YouTube ont été tout d'abord détectées automatiquement. Nous mettons également en place des garde-fous dans nos outils d'IA générative afin de minimiser le risque qu'ils soient utilisés pour créer du contenu pernicieux.
En outre, chacun de nos produits est régi par un ensemble de politiques qui décrit le contenu et les comportements acceptables et inacceptables. Nos politiques sont continuellement affinées et mises à jour pour faire face aux risques émergents. En ce qui concerne notre travail dans le domaine de l'IA, nous nous appuyons également sur nos principes en matière d'IA pour guider le développement des produits et nous aider à tester et à évaluer chaque application d'IA avant son lancement.
Détecter
Détecter le contenu pernicieux
Les tactiques des personnes mal intentionnées évoluant, nous devons redoubler d'efforts pour détecter le contenu pernicieux qui s'introduit dans nos produits. L'IA nous aide à étendre la détection des abus à l'ensemble de nos plateformes. Les classificateurs propulsés par l'IA permettent de signaler rapidement le contenu potentiellement pernicieux pour qu'il soit retiré ou transmis à un réviseur humain. En 2022, l'application obligatoire automatisée nous a aidés à détecter et à bloquer plus de 51,2 millions d'annonces contenant des discours haineux, de la violence et des allégations de santé préjudiciables. En outre, les grands modèles de langage (LLM), un type d'IA révolutionnaire, promettent de réduire de manière exponentielle le temps nécessaire pour détecter et évaluer le matériel préjudiciable, en particulier les risques nouveaux et émergents.
Nous travaillons également avec des organisations extérieures qui signalent le contenu qu'elles jugent pernicieux. Google et YouTube prennent en compte les commentaires de centaines d'informateurs principaux, des organisations du monde entier dotées d'une expertise culturelle et thématique, qui nous transmettent le contenu pour examen.
Intervenir
Intervenir de façon appropriée
Nous nous appuyons à la fois sur des personnes et sur des technologies axées sur l'IA pour évaluer les non-respects potentiels des politiques et réagir de manière appropriée au contenu signalé. Lorsqu'un élément de contenu ne respecte pas nos politiques, nous pouvons le restreindre, le retirer, le démonétiser ou prendre des mesures au niveau du compte afin de réduire les abus futurs.
En 2022, Google Maps a bloqué ou retiré plus de 300 millions d'éléments de contenu fallacieux, 115 millions d'avis ne respectant pas les politiques et 20 millions de tentatives de création de faux profils d'entreprise. Au deuxième trimestre de 2023, YouTube a retiré plus de 14 millions de chaînes et 7 millions de vidéos pour violation de notre règlement de la communauté.
Pour évaluer le contexte et les nuances, tout en réduisant le risque de retrait excessif, nous faisons appel à environ 20 000 réviseurs formés par des experts, qui travaillent dans différents rôles pour appliquer nos politiques, modérer le contenu et évaluer le contenu signalé dans l'ensemble des produits et des services de Google.
Si un créateur ou un éditeur estime que nous avons pris une mauvaise décision, il peut en appeler de notre décision.
Nous renforçons la confiance à l'égard des informations et du contenu de nos plateformes en fournissant des informations fiables et des outils de pointe qui vous permettent de contrôler l'évaluation du contenu.
Comment nous organisons l'information
Algorithmes intelligents
Nos algorithmes, constamment mis à jour, sont au cœur de tout ce que nous faisons, depuis les produits comme Google Maps jusqu'aux résultats de recherche. Ces algorithmes utilisent de grands modèles de langage (LLM) et des signaux, tels que des mots clés ou des sites Web et du contenu actualisés, afin que vous puissiez trouver les résultats les plus pertinents et les plus utiles. Par exemple, YouTube met en évidence un contenu de haute qualité provenant de sources fiables dans ses résultats de recherche, ses recommandations et ses panneaux d'information pour aider les utilisateurs à trouver des actualités et des informations opportunes, exactes et utiles.
Nous avons créé un certain nombre de fonctionnalités pour vous aider à comprendre et à évaluer le contenu que nos algorithmes et nos outils d'IA générative ont mis en évidence, afin que vous ayez plus de contexte autour de ce que vous voyez en ligne.
-
Mon centre d'annonces
L'outil Mon centre d'annonces vous permet de gérer facilement votre expérience publicitaire afin que vous voyiez davantage les marques que vous aimez et moins celles que vous n'aimez pas.
-
Vérification des faits dans Recherche et Actualités
Chaque jour, Google présente six millions de fois des vérifications de faits indépendantes. Grâce aux outils avancés de vérification des images et des résultats de Google, vous êtes mieux équipé pour repérer la mésinformation en ligne.
-
À propos de ce résultat
L'outil « À propos de ce résultat » fournit des détails sur un site Web pour vous aider à le connaître avant de le visiter, notamment sa description, la date de sa première indexation et l'avis d'autres personnes à propos de la source et du sujet.
-
Filigraner avec SynthID
SynthID est un outil permettant de filigraner et d'identifier les images générées par IA. Il s'agit d'une solution technique initiale et prometteuse au problème urgent de la mésinformation en ligne.
-
À propos de cette image
L'outil « À propos de cette image » vous aide à évaluer la crédibilité et le contexte des images que vous voyez en ligne en fournissant des informations, telles que la date à laquelle une image a été vue pour la première fois par Google et la façon dont d'autres sources l'utilisent et la décrivent.
YouTube s'engage à promouvoir une plateforme responsable sur laquelle les spectateurs, les créateurs et les annonceurs qui composent notre communauté peuvent compter. En savoir plus au sujet de notre approche.
-
Retirer
Nous retirons le contenu qui constitue une violation de nos politiques à l'aide d'une combinaison de modération humaine et technologique.
-
Valoriser
Nous valorisons les sources fiables pour les actualités et les informations et nous fournissons du contexte aux spectateurs.
-
Réduire
Nous gérons le contenu de manière responsable en réduisant la diffusion de contenu limite et de mésinformation pernicieuse.
-
Récompenser
Et nous récompensons les créateurs dignes de confiance au moyen du Programme de partenaire YouTube (PPY), en partageant les revenus publicitaires et diverses autres sources de revenus. Plus de 50 milliards de dollars ont été versés aux créateurs, aux artistes et aux entreprises de médias au cours des trois années précédant le mois de juin 2022 par le biais du PPY.
Nous collaborons avec des experts et des organisations, les informons et partageons nos ressources et nos technologies avec eux, le tout de manière proactive.
Partager des connaissances
Échanger des connaissances pour vous protéger
Nous nous associons à des experts de la société civile, du monde universitaire et des gouvernements pour nous attaquer à des problèmes mondiaux tels que la mésinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et la lutte contre l'exploitation des enfants en ligne. Nous publions également les résultats de nos recherches et mettons des ensembles de données à la disposition des universitaires afin de faire des progrès dans ce domaine.
Chez YouTube, nous consultons régulièrement notre comité consultatif pour la jeunesse et les familles indépendant au sujet des mises à jour des produits et des politiques, y compris nos principes pour la jeunesse, et d'une série de mises à jour des produits axées sur la santé mentale et le bien-être des adolescents.
Partager des signaux
Collaborer avec des experts pour lutter contre le contenu illégal
Nous travaillons également avec des partenaires pour découvrir et partager des signaux évidents de contenu abusif afin de permettre leur retrait de l'ensemble de l'écosystème. Nous partageons chaque année des millions de hachages de MESE avec le National Center for Missing and Exploited Children des États-Unis. Nous participons également au projet Lantern, un programme qui permet aux entreprises technologiques de partager des signaux de manière sûre et responsable. En outre, YouTube a cofondé le Global Internet Forum to Counter Terrorism (forum mondial d'Internet pour la lutte contre le terrorisme), qui réunit l'industrie technologique, le gouvernement, la société civile et le monde universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.
Partager des ressources
Soutenir les organisations dédiées à la sécurité
Nous soutenons des organisations du monde entier qui se consacrent à la sécurité en ligne et à l'étude des médias par le biais de programmes dynamiques proposant des formations et du matériel, tels que Être au fait d'Internet, Appuyez sur pause de YouTube et le Google News Lab. En outre, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars à l'International Fact-Checking Network (IFCN) pour soutenir son réseau de 135 organisations de vérification des faits. Au total, nos collaborations ont permis à plus de 550 000 journalistes d'acquérir des compétences en matière de vérification numérique, et nous en avons formé 2,6 millions d'autres en ligne.
Nous partageons des outils qui aident d'autres organisations à protéger leurs plateformes et leurs utilisateurs contre les contenus pernicieux.
-
Trousse de protection de la sécurité des enfants
Nous donnons à des partenaires comme Adobe et Reddit l'accès à nos outils, l'API Content Safety et CSAI Match, qui les aident à classer par ordre de priorité le matériel d'exploitation sexuelle d'enfants (MESE) en vue d'un examen manuel. Ces outils aident nos partenaires à traiter plus de quatre milliards d'éléments de contenu chaque mois, ce qui leur permet de mieux lutter contre les abus sexuels sur des enfants en ligne.
-
API de navigation sécurisée
Notre API de navigation sécurisée permet aux applications clients de vérifier les URL par rapport à nos listes de ressources Web dangereuses, constamment mises à jour. Cet outil protège cinq milliards d'appareils par jour en avertissant les utilisateurs contre les sites qui hébergent des logiciels malveillants ou indésirables.
-
API de qualité de l'information
Nos API de qualité de l'information permettent aux éditeurs et aux plateformes de lutter contre le contenu pernicieux et toxique. L'API Perspective traite deux milliards de commentaires par jour et aide plus de 850 partenaires à réduire les commentaires toxiques quotidiennement. Le New York Times, Reddit et le Wall Street Journal sont quelques-unes des organisations qui utilisent l'API Perspective pour gérer les commentaires abusifs sur leurs sites.
-
API Vision
Notre API Vision aide les développeurs à identifier et à retirer le contenu pernicieux en leur permettant d'intégrer à leurs applications des fonctionnalités telles que l'étiquetage des images, la reconnaissance optique de caractères (ROC) et le balisage de contenu explicite. Avec des données d'entraînement limitées, l'API Vision a réussi à classer 80 % des images.
LE CISG À DUBLIN
Notre cheval de bataille à Dublin : la responsabilité en matière de contenu
Notre centre d'ingénierie de la sécurité de Google pour la responsabilité en matière de contenu à Dublin est une plaque tournante régionale pour les experts de Google qui s'efforcent de lutter contre la diffusion du contenu illégal et pernicieux et un lieu où nous pouvons partager ce travail avec les décideurs politiques, les chercheurs et les organismes de réglementation. Notre réseau de centres d'ingénierie de la sécurité de Google offre à nos équipes l'espace, l'inspiration et le soutien nécessaires pour développer les solutions de nouvelle génération permettant d'améliorer la sécurité en ligne.
Jamais l'impact de notre travail pour fournir des informations et des contenus dignes de confiance n'a été aussi important. Pour relever les défis de la modération de contenu, nous continuerons à investir dans le développement et l'amélioration des politiques, des produits et des processus qui vous permettent d'avoir l'esprit tranquille et de créer une expérience en ligne plus sûre pour tous.
à la sécurité de tous en ligne.
-
Dans nos produitsDécouvrez comment votre sécurité est préservée dans tous les produits de Google.
-
Sécurité et confidentialitéDécouvrez comment Google protège vos renseignements confidentiels et vous donne les moyens de les gérer.
-
Sécurité pour la familleDécouvrez comment Google vous aide à gérer ce qui convient à votre famille en ligne.
-
CybersécuritéDécouvrez ce que nous faisons pour assurer la sécurité de plus d'internautes que quiconque dans le monde.