Des informations et du contenu

fiables.

Chez Google, nous cherchons à concilier l'accès à l'information et la protection des utilisateurs et de la société. Nous prenons cette responsabilité au sérieux. Notre objectif est de fournir un accès à des informations et à du contenu dignes de confiance en protégeant les utilisateurs, en fournissant des informations fiables et en établissant des partenariats avec des experts et des organisations afin de créer un Internet plus sûr.

Vous protéger contre les préjudices.

Nous assurons votre sécurité et celle de la société dans son ensemble grâce à des protections avancées qui non seulement préviennent, mais aussi détectent les contenus pernicieux et illégaux et y réagissent.

Prévenir

Empêcher des abus

Pour protéger les internautes du contenu abusif, nous utilisons des protections soutenues par l'IA. Gmail bloque automatiquement près de 10 millions de pourriels de boîtes de réception chaque minute, et Recherche dispose d'outils pour empêcher la saisie semi-automatique de suggérer des requêtes potentiellement dangereuses. La détection automatique aide YouTube à retirer le contenu pernicieux de manière efficace et à grande échelle. Au deuxième trimestre de 2023, 93 % des vidéos non conformes aux politiques qui ont été retirées de YouTube ont été tout d'abord détectées automatiquement. Nous mettons également en place des garde-fous dans nos outils d'IA générative afin de minimiser le risque qu'ils soient utilisés pour créer du contenu pernicieux.

En outre, chacun de nos produits est régi par un ensemble de politiques qui décrit le contenu et les comportements acceptables et inacceptables. Nos politiques sont continuellement affinées et mises à jour pour faire face aux risques émergents. En ce qui concerne notre travail dans le domaine de l'IA, nous nous appuyons également sur nos principes en matière d'IA pour guider le développement des produits et nous aider à tester et à évaluer chaque application d'IA avant son lancement.

Détecter

Détecter le contenu pernicieux

Les tactiques des personnes mal intentionnées évoluant, nous devons redoubler d'efforts pour détecter le contenu pernicieux qui s'introduit dans nos produits. L'IA nous aide à étendre la détection des abus à l'ensemble de nos plateformes. Les classificateurs propulsés par l'IA permettent de signaler rapidement le contenu potentiellement pernicieux pour qu'il soit retiré ou transmis à un réviseur humain. En 2022, l'application obligatoire automatisée nous a aidés à détecter et à bloquer plus de 51,2 millions d'annonces contenant des discours haineux, de la violence et des allégations de santé préjudiciables. En outre, les grands modèles de langage (LLM), un type d'IA révolutionnaire, promettent de réduire de manière exponentielle le temps nécessaire pour détecter et évaluer le matériel préjudiciable, en particulier les risques nouveaux et émergents.

Nous travaillons également avec des organisations extérieures qui signalent le contenu qu'elles jugent pernicieux. Google et YouTube prennent en compte les commentaires de centaines d'informateurs principaux, des organisations du monde entier dotées d'une expertise culturelle et thématique, qui nous transmettent le contenu pour examen.

Intervenir

Intervenir de façon appropriée

Nous nous appuyons à la fois sur des personnes et sur des technologies axées sur l'IA pour évaluer les non-respects potentiels des politiques et réagir de manière appropriée au contenu signalé. Lorsqu'un élément de contenu ne respecte pas nos politiques, nous pouvons le restreindre, le retirer, le démonétiser ou prendre des mesures au niveau du compte afin de réduire les abus futurs.

En 2022, Google Maps a bloqué ou retiré plus de 300 millions d'éléments de contenu fallacieux, 115 millions d'avis ne respectant pas les politiques et 20 millions de tentatives de création de faux profils d'entreprise. Au deuxième trimestre de 2023, YouTube a retiré plus de 14 millions de chaînes et 7 millions de vidéos pour violation de notre règlement de la communauté.

Pour évaluer le contexte et les nuances, tout en réduisant le risque de retrait excessif, nous faisons appel à environ 20 000 réviseurs formés par des experts, qui travaillent dans différents rôles pour appliquer nos politiques, modérer le contenu et évaluer le contenu signalé dans l'ensemble des produits et des services de Google.

Si un créateur ou un éditeur estime que nous avons pris une mauvaise décision, il peut en appeler de notre décision.

Fournir des informations fiables.

Nous renforçons la confiance à l'égard des informations et du contenu de nos plateformes en fournissant des informations fiables et des outils de pointe qui vous permettent de contrôler l'évaluation du contenu.

Comment nous organisons l'information

Algorithmes intelligents

Nos algorithmes, constamment mis à jour, sont au cœur de tout ce que nous faisons, depuis les produits comme Google Maps jusqu'aux résultats de recherche. Ces algorithmes utilisent de grands modèles de langage (LLM) et des signaux, tels que des mots clés ou des sites Web et du contenu actualisés, afin que vous puissiez trouver les résultats les plus pertinents et les plus utiles. Par exemple, YouTube met en évidence un contenu de haute qualité provenant de sources fiables dans ses résultats de recherche, ses recommandations et ses panneaux d'information pour aider les utilisateurs à trouver des actualités et des informations opportunes, exactes et utiles.

Des outils pour vous aider à évaluer le contenu

Nous avons créé un certain nombre de fonctionnalités pour vous aider à comprendre et à évaluer le contenu que nos algorithmes et nos outils d'IA générative ont mis en évidence, afin que vous ayez plus de contexte autour de ce que vous voyez en ligne.

Gérer le contenu de façon responsable sur YouTube

YouTube s'engage à promouvoir une plateforme responsable sur laquelle les spectateurs, les créateurs et les annonceurs qui composent notre communauté peuvent compter.
En savoir plus au sujet de notre approche.

Établir des partenariats pour créer un Internet plus sûr.

Nous collaborons avec des experts et des organisations, les informons et partageons nos ressources et nos technologies avec eux, le tout de manière proactive.

Partager des connaissances

Échanger des connaissances pour vous protéger

Nous nous associons à des experts de la société civile, du monde universitaire et des gouvernements pour nous attaquer à des problèmes mondiaux tels que la mésinformation, la sécurité des annonces, l'intégrité des élections, l'IA dans la modération de contenu et la lutte contre l'exploitation des enfants en ligne. Nous publions également les résultats de nos recherches et mettons des ensembles de données à la disposition des universitaires afin de faire des progrès dans ce domaine.

Chez YouTube, nous consultons régulièrement notre comité consultatif pour la jeunesse et les familles indépendant au sujet des mises à jour des produits et des politiques, y compris nos principes pour la jeunesse, et d'une série de mises à jour des produits axées sur la santé mentale et le bien-être des adolescents.

Partager des signaux

Collaborer avec des experts pour lutter contre le contenu illégal

Nous travaillons également avec des partenaires pour découvrir et partager des signaux évidents de contenu abusif afin de permettre leur retrait de l'ensemble de l'écosystème. Nous partageons chaque année des millions de hachages de MESE avec le National Center for Missing and Exploited Children des États-Unis. Nous participons également au projet Lantern, un programme qui permet aux entreprises technologiques de partager des signaux de manière sûre et responsable. En outre, YouTube a cofondé le Global Internet Forum to Counter Terrorism (forum mondial d'Internet pour la lutte contre le terrorisme), qui réunit l'industrie technologique, le gouvernement, la société civile et le monde universitaire pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Partager des ressources

Soutenir les organisations dédiées à la sécurité

Nous soutenons des organisations du monde entier qui se consacrent à la sécurité en ligne et à l'étude des médias par le biais de programmes dynamiques proposant des formations et du matériel, tels que Être au fait d'Internet, Appuyez sur pause de YouTube et le Google News Lab. En outre, Google et YouTube ont annoncé une subvention de 13,2 millions de dollars à l'International Fact-Checking Network (IFCN) pour soutenir son réseau de 135 organisations de vérification des faits. Au total, nos collaborations ont permis à plus de 550 000 journalistes d'acquérir des compétences en matière de vérification numérique, et nous en avons formé 2,6 millions d'autres en ligne.

Partager activement des API de sécurité

Nous partageons des outils qui aident d'autres organisations à protéger leurs plateformes et leurs utilisateurs contre les contenus pernicieux.

LE CISG À DUBLIN

Notre cheval de bataille à Dublin : la responsabilité en matière de contenu

Notre centre d'ingénierie de la sécurité de Google pour la responsabilité en matière de contenu à Dublin est une plaque tournante régionale pour les experts de Google qui s'efforcent de lutter contre la diffusion du contenu illégal et pernicieux et un lieu où nous pouvons partager ce travail avec les décideurs politiques, les chercheurs et les organismes de réglementation. Notre réseau de centres d'ingénierie de la sécurité de Google offre à nos équipes l'espace, l'inspiration et le soutien nécessaires pour développer les solutions de nouvelle génération permettant d'améliorer la sécurité en ligne.

Un Internet plus utile et plus sûr dès la conception.

Jamais l'impact de notre travail pour fournir des informations et des contenus dignes de confiance n'a été aussi important. Pour relever les défis de la modération de contenu, nous continuerons à investir dans le développement et l'amélioration des politiques, des produits et des processus qui vous permettent d'avoir l'esprit tranquille et de créer une expérience en ligne plus sûre pour tous.

Découvrez comment Google contribue
à la sécurité de tous en ligne.