Secure AI Framework de Google (SAIF)
Le potentiel de l'IA, en particulier de l'IA générative, est immense. À mesure que l'innovation progresse, le secteur a besoin de normes de sécurité pour créer et déployer l'IA de manière responsable. C'est pourquoi nous avons introduit le Secure AI Framework (SAIF), un cadre conceptuel pour sécuriser les systèmes d'IA.
Le SAIF est conçu pour répondre aux préoccupations prioritaires des professionnels de la sécurité, comme la gestion des risques, la sécurité et la confidentialité des modèles d'IA/d'AA, contribuant ainsi à garantir que lorsque les modèles d'IA sont mis en œuvre, ils sont sécurisés par défaut.
Nous sommes ravis de partager les premières étapes de notre parcours visant à créer un écosystème SAIF à l'échelle des gouvernements, des entreprises et des organisations afin de faire progresser un cadre de déploiement sécurisé de l'IA qui sera bénéfique à tous.
Intégrer le SAIF aux gouvernements et aux organisations
Nous collaborons avec les gouvernements et les organisations pour aider à atténuer les risques relatifs à la sécurité de l'IA. Notre collaboration avec les décideurs politiques et les organismes de normalisation, comme le NIST, contribue à l'évolution des systèmes réglementaires. Nous avons récemment mis en évidence le rôle du Secure AI Framework (SAIF) dans la sécurisation des systèmes d'IA, conformément aux engagements relatifs à l'IA de la Maison-Blanche .
Élargir le SAIF à des alliés du secteur
Nous favorisons le soutien du secteur au SAIF auprès de nos partenaires et de nos clients, en organisant des ateliers SAIF avec des spécialistes et en publiant des pratiques exemplaires relatives à la sécurité de l'IA. Nous avons établi un partenariat avec Deloitte sur un document de présentation technique à propos de la manière dont les organisations peuvent utiliser l'IA pour relever les défis de sécurité.
-
Android : directives de développement sécurisé
Sécurisez votre organisation avec les alertes de vulnérabilité en temps réel d'Android et suivez les directives de développement sécurisé pour le code d'AA.
Comment sont liés le SAIF et l'IA responsable?
Google a l'obligation de créer l'IA de manière responsable, et d'encourager les autres à faire de même. Nos principes d'IA, publiés en 2018, décrivent notre engagement à développer des technologies de manière responsable et d'une manière qui permet la sécurité et la responsabilité, et qui respecte les normes élevées d'excellence scientifique. L'IA responsable est notre approche globale qui comporte plusieurs dimensions comme l'« équité », l'« interprétabilité », la « sécurité » et la « confidentialité » qui guident tout le développement des produits de l'IA de Google.
Le SAIF est notre cadre de création d'une approche normalisée et holistique pour intégrer des mesures de sécurité et de confidentialité dans les applications basées sur l'AA. Il s'aligne sur les dimensions de « sécurité » et de « confidentialité » de la création d'une IA de manière responsable. Le SAIF assure que les applications basées sur l'AA sont développées de manière responsable, en tenant compte de l'évolution du contexte des menaces et des attentes de l'utilisateur.
Comment Google met-elle en œuvre le SAIF?
Google est connue pour son parcours historique dans le développement responsable de l'IA et de la cybersécurité, et nous élaborons depuis de nombreuses années des pratiques exemplaires relatives à la sécurité pour les innovations relatives à l'IA. Notre Secure AI Framework est issu de l'ensemble de l'expérience et des pratiques exemplaires que nous avons développées et mises en œuvre, et reflète l'approche de Google relative à la création d'applications propulsées par l'IA générative et par l'AA, avec des protections réactives, durables et évolutives en lien avec la sécurité et à la confidentialité. Nous poursuivrons notre évolution et notre développement du SAIF pour répondre aux nouveaux risques, au contexte changeant et aux progrès dans l'IA.
Comment les spécialistes peuvent-ils mettre en œuvre le cadre?
Découvrez notre guide rapide de mise en œuvre du SAIF :
-
Étape 1 : Comprendre l'utilisation
- Comprendre le problème d'affaires spécifique que l'IA résoudra et les données nécessaires pour entraîner le modèle aideront à piloter la politique, les protocoles et les contrôles qui doivent être mis en œuvre dans le cadre du SAIF.
-
Étape 2 : Rassembler l'équipe
- Le développement et le déploiement de systèmes d'IA, tout comme les systèmes traditionnels, relèvent d'efforts multidisciplinaires.
- Les systèmes d'IA sont souvent complexes et opaques, comportent un grand nombre de pièces amovibles, s'appuient sur de grandes quantités de données, qui utilisent beaucoup de ressources, peuvent être utilisés pour appliquer des décisions fondées sur le jugement et peuvent générer de nouveaux contenus pouvant être choquants, nuisibles ou peuvent perpétuer des stéréotypes et des biais sociaux.
- Créez la bonne équipe interfonctionnelle pour assurer que les considérations relatives à la sécurité, à la confidentialité, au risque et à la conformité sont incluses dès le départ.
-
Étape 3 : Définir le niveau avec une introduction à l'IA
- Alors que les équipes se lancent dans l'évaluation de l'utilisation dans l'entreprise, des complexités, des risques et des contrôles de sécurité variés et évolutifs qui s'appliquent, il est essentiel que les parties impliquées comprennent les bases du cycle de vie de développement des modèles d'IA, la conception et la logique des méthodologies du modèle, y compris les capacités, les avantages et les limites.
-
Étape 4 : Appliquer les six éléments fondamentaux du SAIF (énumérés précédemment)
- Ces éléments ne sont pas destinés à être appliqués dans l'ordre chronologique.
Où puis-je trouver plus de renseignements sur le SAIF et comment l'appliquer à mon entreprise ou à mon entité?
Restez à l'affût! Google continuera de créer et de partager des ressources, des conseils et des outils relatifs au Secure AI Framework, ainsi que d'autres pratiques exemplaires relatives au développement d'application de l'IA.
En tant que l'une des premières entreprises à expliquer les principes de l'IA, nous avons établi la norme en matière d'lA responsable. Elle guide le développement de nos produits relatif à la sécurité. Nous avons défendu et développé des cadres du secteur pour relever la barre de sécurité et nous avons appris que créer une communauté pour faire avancer le travail est essentiel pour réussir à long terme. C'est pourquoi nous sommes ravis de créer une communauté SAIF pour tous.