Secure AI Framework de Google
(SAIF)

Le potentiel de l'IA, en particulier de l'IA générative, est immense. À mesure que l'innovation progresse, le secteur a besoin de normes de sécurité pour créer et déployer l'IA de manière responsable. C'est pourquoi nous avons introduit le Secure AI Framework (SAIF), un cadre conceptuel pour sécuriser les systèmes d'IA.

Six éléments fondamentaux du SAIF

Le SAIF est conçu pour répondre aux préoccupations prioritaires des professionnels de la sécurité, comme la gestion des risques, la sécurité et la confidentialité des modèles d'IA/d'AA, contribuant ainsi à garantir que lorsque les modèles d'IA sont mis en œuvre, ils sont sécurisés par défaut.

Élargissez des bases de sécurité solides à l'écosystème d'IA
Élargissez la détection et la réponse pour intégrer l'IA dans l'univers des menaces d'une organisation
Automatisez les défenses pour suivre le rythme des nouvelles menaces et des menaces existantes
Harmonisez les commandes au niveau de la plateforme pour assurer une sécurité cohérente dans toute l'organisation
Adaptez les commandes pour ajuster les atténuations et créer des boucles de rétroaction plus rapides pour le déploiement de l'IA
Contextualisez les risques des systèmes d'IA dans les processus d'entreprise environnants
Télécharger le PDF
Activer un écosystème plus sécurisé

Nous sommes ravis de partager les premières étapes de notre parcours visant à créer un écosystème SAIF à l'échelle des gouvernements, des entreprises et des organisations afin de faire progresser un cadre de déploiement sécurisé de l'IA qui sera bénéfique à tous.

Intégrer le SAIF aux gouvernements et aux organisations

Nous collaborons avec les gouvernements et les organisations pour aider à atténuer les risques relatifs à la sécurité de l'IA. Notre collaboration avec les décideurs politiques et les organismes de normalisation, comme le NIST, contribue à l'évolution des systèmes réglementaires. Nous avons récemment mis en évidence le rôle du Secure AI Framework (SAIF) dans la sécurisation des systèmes d'IA, conformément aux engagements relatifs à l'IA de la Maison-Blanche .

Élargir le SAIF à des alliés du secteur

Nous favorisons le soutien du secteur au SAIF auprès de nos partenaires et de nos clients, en organisant des ateliers SAIF avec des spécialistes et en publiant des pratiques exemplaires relatives à la sécurité de l'IA. Nous avons établi un partenariat avec Deloitte sur un document de présentation technique à propos de la manière dont les organisations peuvent utiliser l'IA pour relever les défis de sécurité.

Ressources supplémentaires
Questions fréquentes à propos du SAIF

Comment sont liés le SAIF et l'IA responsable?

Google a l'obligation de créer l'IA de manière responsable, et d'encourager les autres à faire de même. Nos principes d'IA, publiés en 2018, décrivent notre engagement à développer des technologies de manière responsable et d'une manière qui permet la sécurité et la responsabilité, et qui respecte les normes élevées d'excellence scientifique. L'IA responsable est notre approche globale qui comporte plusieurs dimensions comme l'« équité », l'« interprétabilité », la « sécurité » et la « confidentialité » qui guident tout le développement des produits de l'IA de Google.

Le SAIF est notre cadre de création d'une approche normalisée et holistique pour intégrer des mesures de sécurité et de confidentialité dans les applications basées sur l'AA. Il s'aligne sur les dimensions de « sécurité » et de « confidentialité » de la création d'une IA de manière responsable. Le SAIF assure que les applications basées sur l'AA sont développées de manière responsable, en tenant compte de l'évolution du contexte des menaces et des attentes de l'utilisateur.

Comment Google met-elle en œuvre le SAIF?

Google est connue pour son parcours historique dans le développement responsable de l'IA et de la cybersécurité, et nous élaborons depuis de nombreuses années des pratiques exemplaires relatives à la sécurité pour les innovations relatives à l'IA. Notre Secure AI Framework est issu de l'ensemble de l'expérience et des pratiques exemplaires que nous avons développées et mises en œuvre, et reflète l'approche de Google relative à la création d'applications propulsées par l'IA générative et par l'AA, avec des protections réactives, durables et évolutives en lien avec la sécurité et à la confidentialité. Nous poursuivrons notre évolution et notre développement du SAIF pour répondre aux nouveaux risques, au contexte changeant et aux progrès dans l'IA.

Comment les spécialistes peuvent-ils mettre en œuvre le cadre?

Découvrez notre guide rapide de mise en œuvre du SAIF :

  • Étape 1 : Comprendre l'utilisation
    • Comprendre le problème d'affaires spécifique que l'IA résoudra et les données nécessaires pour entraîner le modèle aideront à piloter la politique, les protocoles et les contrôles qui doivent être mis en œuvre dans le cadre du SAIF.
  • Étape 2 : Rassembler l'équipe
    • Le développement et le déploiement de systèmes d'IA, tout comme les systèmes traditionnels, relèvent d'efforts multidisciplinaires.
    • Les systèmes d'IA sont souvent complexes et opaques, comportent un grand nombre de pièces amovibles, s'appuient sur de grandes quantités de données, qui utilisent beaucoup de ressources, peuvent être utilisés pour appliquer des décisions fondées sur le jugement et peuvent générer de nouveaux contenus pouvant être choquants, nuisibles ou peuvent perpétuer des stéréotypes et des biais sociaux.
    • Créez la bonne équipe interfonctionnelle pour assurer que les considérations relatives à la sécurité, à la confidentialité, au risque et à la conformité sont incluses dès le départ.
  • Étape 3 : Définir le niveau avec une introduction à l'IA
    • Alors que les équipes se lancent dans l'évaluation de l'utilisation dans l'entreprise, des complexités, des risques et des contrôles de sécurité variés et évolutifs qui s'appliquent, il est essentiel que les parties impliquées comprennent les bases du cycle de vie de développement des modèles d'IA, la conception et la logique des méthodologies du modèle, y compris les capacités, les avantages et les limites.
  • Étape 4 : Appliquer les six éléments fondamentaux du SAIF (énumérés précédemment)
    • Ces éléments ne sont pas destinés à être appliqués dans l'ordre chronologique.

Où puis-je trouver plus de renseignements sur le SAIF et comment l'appliquer à mon entreprise ou à mon entité?

Restez à l'affût! Google continuera de créer et de partager des ressources, des conseils et des outils relatifs au Secure AI Framework, ainsi que d'autres pratiques exemplaires relatives au développement d'application de l'IA.

Pourquoi nous soutenons une communauté d'IA sécurisée pour tous

En tant que l'une des premières entreprises à expliquer les principes de l'IA, nous avons établi la norme en matière d'lA responsable. Elle guide le développement de nos produits relatif à la sécurité. Nous avons défendu et développé des cadres du secteur pour relever la barre de sécurité et nous avons appris que créer une communauté pour faire avancer le travail est essentiel pour réussir à long terme. C'est pourquoi nous sommes ravis de créer une communauté SAIF pour tous.

Progrès en matière de cybersécurité

Découvrez ce que nous faisons pour assurer la sécurité de plus d'internautes que quiconque dans le monde.