Cadre d'IA sécurisé de Google
(SAIF)
Le potentiel de l'IA, en particulier de l'IA générative, est immense. À mesure que l'innovation progresse, le secteur a besoin de normes de sécurité pour créer et déployer l'IA de manière responsable. C'est pourquoi nous avons introduit le cadre d'IA sécurisé (SAIF), un cadre conceptuel pour sécuriser les systèmes d'IA.
Six éléments fondamentaux du SAIF
-
Élargissez des bases de sécurité solides à l'écosystème d'IA
-
Élargissez la détection et la réponse pour intégrer l'IA dans l'univers des menaces d'une organisation
-
Automatisez les défenses pour suivre le rythme des nouvelles menaces et des menaces existantes
-
Harmonisez les commandes au niveau de la plateforme pour assurer une sécurité cohérente dans toute l'organisation
-
Adaptez les commandes pour ajuster les atténuations et créer des boucles de rétroaction plus rapides pour le déploiement de l'IA
-
Contextualisez les risques des systèmes d'IA dans les processus d'entreprise environnants
Activer un écosystème plus sécurisé
Ressources supplémentaires
Questions fréquentes
à propos du SAIF
Google est connue pour son parcours historique dans le développement responsable de l'IA et de la cybersécurité, et nous élaborons depuis de nombreuses années des pratiques exemplaires relatives à la sécurité pour les innovations relatives à l'IA. Notre cadre d'IA sécurisé est issu de l'ensemble de l'expérience et des pratiques exemplaires que nous avons développées et mises en œuvre, et reflète l'approche de Google relative à la création d'applications propulsées par l'IA générative et par l'AA, avec des protections réactives, durables et évolutives en lien avec la sécurité et à la confidentialité. Nous poursuivrons notre évolution et notre développement du SAIF pour répondre aux nouveaux risques, au contexte changeant et aux progrès dans l'IA.
Consultez notre guide rapide pour mettre en œuvre le cadre SAIF :
- Étape 1 : Comprendre l'utilisation
- Comprendre le problème d'affaires spécifique que l'IA résoudra et les données nécessaires pour entraîner le modèle aideront à piloter la politique, les protocoles et les contrôles qui doivent être mis en œuvre dans le cadre du SAIF.
- Étape 2 : Rassembler l'équipe
- Le développement et le déploiement de systèmes d'IA, tout comme les systèmes traditionnels, relèvent d'efforts multidisciplinaires.
- Les systèmes d'IA sont souvent complexes et opaques, comportent un grand nombre de composants dynamiques, s'appuient sur de grandes quantités de données, utilisent beaucoup de ressources, peuvent servir à appliquer des décisions fondées sur le jugement et peuvent générer de nouveaux contenus pouvant être choquants ou nuisibles, ou pouvant perpétuer des stéréotypes et des biais sociaux.
- Créez la bonne équipe multifonctionnelle pour faire en sorte que les considérations relatives à la sécurité, à la confidentialité, au risque et à la conformité sont incluses dès le départ.
-
Étape 3 : Mettre tout le monde au même niveau avec une introduction à l'IA
- Alors que les équipes se lancent dans l'évaluation de l'utilisation de l'IA dans l'entreprise et des complexités, des risques et des contrôles de sécurité variés et évolutifs qui s'appliquent, il est essentiel que les parties impliquées comprennent les bases du cycle de vie du développement des modèles d'IA , la conception et la logique des méthodologies du modèle, y compris les capacités, les avantages et les limites.
-
Étape 4 : Appliquer les six éléments fondamentaux du cadre SAIF
- Ces éléments ne sont pas destinés à être appliqués dans un ordre chronologique.
Restez à l'affût! Google continuera de créer et de partager des ressources, des conseils et des outils relatifs au cadre d'IA sécurisé, ainsi que d'autres pratiques exemplaires relatives au développement d'application de l'IA.