SAIF,
le framework d'IA sécurisé de Google

L'IA, et plus particulièrement l'IA générative, présente un potentiel énorme. Plus la technologie progresse, plus le secteur se doit de mettre en place des normes de sécurité pour s'assurer que l'IA est développée et déployée de manière responsable. C'est pourquoi nous avons créé notre framework d'IA sécurisé (SAIF), un framework conceptuel visant à renforcer la sécurité des systèmes d'IA.

Les six éléments principaux du SAIF

Le SAIF est conçu pour répondre aux principales préoccupations des professionnels de la sécurité, telles que la gestion des risques liés aux modèles d'IA et de ML, ainsi que leur sécurité et confidentialité. Il contribue ainsi à s'assurer que la mise en place des modèles d'IA est sécurisée par défaut.

Développer des bases solides pour la sécurité de l'écosystème de l'IA
Étendre la détection et la capacité de réponse afin d'intégrer l'IA aux stratégies de protection contre les menaces pesant sur les organisations
Automatiser les défenses pour s'adapter aux menaces nouvelles et existantes
Harmoniser les contrôles au niveau de la plate-forme afin de permettre une sécurité homogène dans l'organisation
Adapter les commandes pour permettre d'ajuster les mesures d'atténuation et instaurer des boucles de rétroaction plus rapides pour le déploiement de l'IA
Contextualiser les risques liés aux systèmes d'IA dans les processus métiers adjacents
Télécharger le PDF
Pour un écosystème
plus sûr

Nous sommes heureux de vous faire part des premières étapes de notre parcours visant à créer un écosystème SAIF qui regroupe les gouvernements, les entreprises et les organisations, de façon à développer un framework de déploiement sécurisé de l'IA pour tous.

Mettre le SAIF à la disposition des gouvernements et des organisations

Nous travaillons avec des gouvernements et des organisations pour contribuer à limiter les risques de sécurité liés à l'IA. Notre collaboration avec des décideurs politiques et des organismes de normalisation tels que le NIST participe à l'évolution des cadres réglementaires. Nous avons récemment mis en avant le rôle du SAIF dans le renforcement de la sécurité des systèmes d'IA, en adhésion avec les engagements relatifs à l'IA de la Maison-Blanche.

Étendre la portée du SAIF à l'aide d'alliés professionnels

Nous faisons en sorte de favoriser le soutien du secteur envers le SAIF en collaboration avec nos clients et partenaires, en organisant des ateliers sur le SAIF avec des professionnels et en publiant des bonnes pratiques concernant la sécurité de l'IA. Nous nous sommes associés à Deloitte pour rédiger un livre blanc sur les façons dont les entreprises peuvent exploiter l'IA pour résoudre des problèmes de sécurité.

Autres ressources
Questions fréquentes sur le SAIF

En quoi le SAIF et l'IA responsable sont-ils liés ?

Google a le devoir de développer l'IA de manière responsable et d'encourager les autres à faire de même. Publiés en 2018, nos Principes concernant l'IA décrivent notre engagement à développer cette technologie de façon sûre et responsable, en promouvant le sentiment de responsabilité (accountability) et des normes d'excellence scientifique rigoureuses. L'IA responsable est le nom donné à l'approche fondamentale qui guide le développement de tous les produits à base d'IA de Google. Elle repose sur plusieurs piliers, tels que l'Équité, l'Interprétabilité, la Sécurité et la Confidentialité.

Le SAIF est notre framework visant à créer une approche globale standardisée pour intégrer des mesures de sécurité et de confidentialité aux applications qui exploitent le ML. Il s'inscrit dans les volets Sécurité et Confidentialité du développement responsable de l'IA. Ce framework permet de s'assurer que les applications qui reposent sur le ML sont développées de manière responsable, en tenant compte de l'évolution constante des menaces et des attentes des utilisateurs.

Comment le SAIF est-il mis en pratique chez Google ?

Google est depuis longtemps un précurseur de l'IA responsable et du développement de la cybersécurité. Depuis de nombreuses années, nous définissons les bonnes pratiques concernant les innovations liées à l'IA. Notre framework d'IA sécurisé découle de notre longue expérience et des bonnes pratiques que nous avons développées et mises en place, et reflète l'approche de Google concernant la conception d'applications basées sur le ML et l'IA générative, dotées de systèmes de protection responsifs, durables et adaptables pour assurer sécurité et confidentialité. Nous continuerons d'adapter et de développer le SAIF pour tenir compte des nouveaux risques, de l'évolution du secteur et des avancées de l'IA.

Comment implémenter le framework en tant que professionnel ?

Consultez notre guide rapide sur l'implémentation du framework SAIF :

  • Étape 1 : Comprenez en quoi consistera son utilisation
    • Comprendre le problème métier spécifique que l'IA résoudra et les données requises pour entraîner le modèle vous aidera à déterminer les règles, protocoles et contrôles à mettre en place dans le cadre du SAIF.
  • Étape 2 : Créez la bonne équipe
    • Le développement et le déploiement de systèmes d'IA, comme ceux des systèmes traditionnels, nécessitent la collaboration de plusieurs équipes.
    • Les systèmes d'IA sont souvent complexes et peu transparents. Ils incluent de nombreuses variables, reposent sur un grand volume de données et nécessitent beaucoup de ressources. De plus, ils peuvent être utilisés pour prendre des décisions fondées sur un jugement, et le contenu qu'ils génèrent peut être choquant, dangereux ou perpétuer des stéréotypes et des biais sociaux.
    • Composez une équipe pluridisciplinaire compétente pour tenir compte des considérations liées à la sécurité, la confidentialité, la gestion des risques et la conformité dès le départ.
  • Étape 3 : Familiarisez toutes les personnes concernées avec l'IA
    • Tandis que les équipes entreprennent de déterminer l'utilisation métier de l'IA et les difficultés, risques et contrôles de sécurité variés et changeants qu'elle implique, il est essentiel que les personnes concernées comprennent les notions de base du cycle de vie du développement d'un modèle d'IA, ainsi que le but et la logique des méthodes associées au modèle, y compris leurs capacités, atouts et limites.
  • Étape 4 : Mettez en pratique les six éléments principaux du SAIF (voir ci-dessous)
    • Ces éléments ne doivent pas forcément être mis en application dans un ordre chronologique.

Où trouver plus d'informations sur le SAIF et sur la façon l'appliquer dans mon entreprise ou organisation ?

Restez attentifs ! Google va continuer à concevoir et partager des ressources, recommandations et outils liés au framework d'IA sécurisé, ainsi que d'autres bonnes pratiques concernant le développement d'applications d'IA.

Pourquoi nous voulons une communauté autour de l'IA sécurisée pour tous

Comme nous comptons parmi les premières entreprises à avoir défini des principes concernant l'IA, notre approche de l'IA responsable fait office de norme. Elle nous guide en plaçant la sécurité au cœur du développement de nos produits. Nous avons préconisé et développé des frameworks pour une sécurité renforcée dans notre secteur, et nous avons compris que la création d'une communauté était essentielle pour que ce travail continue de progresser sur le long terme. Nous sommes donc ravis de faire grandir une communauté autour du SAIF pour tous.

Cybersécurité

Découvrez comment nous protégeons plus d'utilisateurs en ligne que n'importe quelle autre entreprise au monde.