Secure AI Framework de Google (SAIF)
Le potentiel de l'IA, en particulier de l'IA générative, est immense. À mesure que l'innovation progresse, le secteur a besoin de normes de sécurité pour créer et déployer l'IA de manière responsable. C'est pourquoi nous avons introduit le Secure AI Framework (SAIF), un cadre conceptuel pour sécuriser les systèmes d'IA.
Le SAIF est conçu pour répondre aux préoccupations prioritaires des professionnels de la sécurité, comme la gestion des risques, la sécurité et la confidentialité des modèles d'IA/d'AA, contribuant ainsi à garantir que lorsque les modèles d'IA sont mis en œuvre, ils sont sécurisés par défaut.
Nous sommes ravis de partager les premières étapes de notre parcours visant à créer un écosystème SAIF à l'échelle des gouvernements, des entreprises et des organisations afin de faire progresser un cadre de déploiement sécurisé de l'IA qui sera bénéfique à tous.
Voici SAIF.Google : l'IA sécurisée commence ici
SAIF.Google est un nouveau centre de ressources destiné à aider les professionnels de la sécurité à naviguer dans le paysage évolutif de la sécurité de l'IA. Il fournit un ensemble de risques et de contrôles relatifs à la sécurité de l'IA, y compris un « rapport d'autoévaluation des risques » pour aider les praticiens à comprendre les risques qui pourraient les affecter et comment mettre en œuvre le SAIF dans leurs organisations. Ces ressources aideront à répondre au besoin crucial de construire et de déployer des systèmes d'IA sécurisés dans un monde d'IA en évolution rapide.
Coalition pour une IA sécurisée : développer le SAIF avec des alliés du secteur
Nous contribuons à l'avancement de ce travail et favorisons le soutien du secteur en formant la « Coalition pour une IA sécurisée (CoSAI) », avec des membres fondateurs, comme Anthropic, Amazon, Cisco, Cohere, Chainguard, GenLab, Google, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal et Wiz, afin de relever les défis majeurs de la mise en œuvre de systèmes d'IA sécurisés.
-
Android : directives de développement sécurisé
Sécurisez votre organisation avec les alertes de vulnérabilité en temps réel d'Android et suivez les directives de développement sécurisé pour le code d'AA.
-
Sécuriser la chaîne d'approvisionnement des logiciels d'IA
Ce document de présentation technique traite de la sécurisation de la chaîne d'approvisionnement de l'IA à l'aide d'informations de provenance, décrit les risques traditionnels et les risques liés aux logiciels d'IA, et propose des solutions pratiques pour les organisations.
Comment sont liés le SAIF et l'IA responsable?
Google a l'obligation de créer l'IA de manière responsable, et d'encourager les autres à faire de même. Nos principes d'IA, publiés en 2018, décrivent notre engagement à développer des technologies de manière responsable et d'une manière qui permet la sécurité et la responsabilité, et qui respecte les normes élevées d'excellence scientifique. L'IA responsable est notre approche globale qui comporte plusieurs dimensions comme l'« équité », l'« interprétabilité », la « sécurité » et la « confidentialité » qui guident tout le développement des produits de l'IA de Google.
Le SAIF est notre cadre de création d'une approche normalisée et holistique pour intégrer des mesures de sécurité et de confidentialité dans les applications basées sur l'AA. Il s'aligne sur les dimensions de « sécurité » et de « confidentialité » de la création d'une IA de manière responsable. Le SAIF assure que les applications basées sur l'AA sont développées de manière responsable, en tenant compte de l'évolution du contexte des menaces et des attentes de l'utilisateur.
Comment Google met-elle en œuvre le SAIF?
Google est connue pour son parcours historique dans le développement responsable de l'IA et de la cybersécurité, et nous élaborons depuis de nombreuses années des pratiques exemplaires relatives à la sécurité pour les innovations relatives à l'IA. Notre Secure AI Framework est issu de l'ensemble de l'expérience et des pratiques exemplaires que nous avons développées et mises en œuvre, et reflète l'approche de Google relative à la création d'applications propulsées par l'IA générative et par l'AA, avec des protections réactives, durables et évolutives en lien avec la sécurité et à la confidentialité. Nous poursuivrons notre évolution et notre développement du SAIF pour répondre aux nouveaux risques, au contexte changeant et aux progrès dans l'IA.
Comment les spécialistes peuvent-ils mettre en œuvre le cadre?
Découvrez notre guide rapide de mise en œuvre du SAIF :
-
Étape 1 : Comprendre l'utilisation
- Comprendre le problème d'affaires spécifique que l'IA résoudra et les données nécessaires pour entraîner le modèle aideront à piloter la politique, les protocoles et les contrôles qui doivent être mis en œuvre dans le cadre du SAIF.
-
Étape 2 : Rassembler l'équipe
- Le développement et le déploiement de systèmes d'IA, tout comme les systèmes traditionnels, relèvent d'efforts multidisciplinaires.
- Les systèmes d'IA sont souvent complexes et opaques, comportent un grand nombre de pièces amovibles, s'appuient sur de grandes quantités de données, qui utilisent beaucoup de ressources, peuvent être utilisés pour appliquer des décisions fondées sur le jugement et peuvent générer de nouveaux contenus pouvant être choquants, nuisibles ou peuvent perpétuer des stéréotypes et des biais sociaux.
- Créez la bonne équipe interfonctionnelle pour assurer que les considérations relatives à la sécurité, à la confidentialité, au risque et à la conformité sont incluses dès le départ.
-
Étape 3 : Définir le niveau avec une introduction à l'IA
- Alors que les équipes se lancent dans l'évaluation de l'utilisation dans l'entreprise, des complexités, des risques et des contrôles de sécurité variés et évolutifs qui s'appliquent, il est essentiel que les parties impliquées comprennent les bases du cycle de vie de développement des modèles d'IA, la conception et la logique des méthodologies du modèle, y compris les capacités, les avantages et les limites.
-
Étape 4 : Appliquer les six éléments fondamentaux du SAIF (énumérés précédemment)
- Ces éléments ne sont pas destinés à être appliqués dans l'ordre chronologique.
Où puis-je trouver plus de renseignements sur le SAIF et comment l'appliquer à mon entreprise ou à mon entité?
Restez à l'affût! Google continuera de créer et de partager des ressources, des conseils et des outils relatifs au Secure AI Framework, ainsi que d'autres pratiques exemplaires relatives au développement d'application de l'IA.
En tant que l'une des premières entreprises à expliquer les principes de l'IA, nous avons établi la norme en matière d'lA responsable. Elle guide le développement de nos produits relatif à la sécurité. Nous avons défendu et développé des cadres du secteur pour relever la barre de sécurité et nous avons appris que créer une communauté pour faire avancer le travail est essentiel pour réussir à long terme. C'est pourquoi nous sommes ravis de créer une communauté SAIF pour tous.