Secure AI Framework do Google (SAIF)
O potencial da IA, principalmente da IA generativa, é imenso. Conforme a inovação avança, o setor precisa de padrões de segurança para desenvolver e implantar a inteligência artificial de maneira responsável. Por isso apresentamos o Secure AI Framework (SAIF) (em inglês), um framework conceitual que oferece mais segurança aos sistemas de IA.
O SAIF foi projetado para lidar com as principais preocupações dos profissionais de segurança, como proteção, privacidade e gerenciamento de risco dos modelos de IA/ML, ajudando a garantir que a implementação dos modelos seja segura por padrão.
É um prazer compartilhar as primeiras etapas da nossa jornada para construir um ecossistema do SAIF em governos, empresas e organizações, desenvolvendo um framework para uma implantação segura de IA que funcione para todos.
Uso do SAIF em governos e organizações
Colaboramos com governos e organizações para ajudar a mitigar riscos de segurança relacionados à IA. Nosso trabalho com formuladores de políticas e agências reguladoras, como o NIST (em inglês), contribui para a evolução das normas. Recentemente, reiteramos o papel do SAIF para a segurança de sistemas de IA, em alinhamento com os compromissos de IA da Casa Branca (em inglês).
Expansão do SAIF com aliados do setor
Estamos estimulando um suporte do setor ao SAIF com parceiros e clientes, oferecendo workshops com profissionais e publicando práticas recomendadas sobre segurança em IA. Estabelecemos uma parceria (em inglês) com a Deloitte em um artigo sobre como organizações podem usar IA para lidar com desafios de segurança.
-
Android: diretrizes de desenvolvimento seguro
Proteja sua organização com os alertas de vulnerabilidade em tempo real do Android e siga as diretrizes de desenvolvimento seguro de códigos de ML.
Qual é a relação entre o SAIF e a IA responsável?
O Google tem como imperativo desenvolver inteligência artificial de maneira responsável e possibilitar que outros façam o mesmo. Nossos princípios de IA, publicados em 2018, descrevem nosso compromisso de desenvolver tecnologia com responsabilidade e segurança, permitindo prestação de contas e a defesa do mais alto padrão de excelência científica. A IA responsável é nossa abordagem abrangente com várias dimensões, como justiça, interpretabilidade, segurança e privacidade, que guiam o desenvolvimento de todos os produtos com IA do Google.
O SAIF é nosso framework para a criação de uma abordagem padronizada e holística, que integre medidas de segurança e privacidade em aplicativos com tecnologia de ML. Ele está alinhado com as dimensões de segurança e privacidade da criação de IA responsável. O SAIF garante que aplicativos com tecnologia de ML sejam desenvolvidos de modo responsável, considerando o cenário de ameaças em constante evolução e as expectativas dos usuários.
Como o Google está colocando o SAIF em prática?
O Google tem um longo histórico de desenvolvimento de IA responsável e segurança cibernética e, há vários anos, mapeia as práticas recomendadas de segurança relacionadas a inovações na área. Nosso Secure AI Framework surge desse conjunto de experiências e práticas recomendadas que desenvolvemos e implementamos. Isso reflete a abordagem do Google ao criar apps baseados em tecnologia de ML e IA generativa, com proteções responsivas, sustentáveis e escalonáveis para sua segurança e privacidade. Vamos continuar desenvolvendo o SAIF para que ele possa lidar com novos riscos, cenários variáveis e avanços em inteligência artificial.
Como profissionais podem implementar o framework?
Acesse nosso guia rápido (em inglês) para implementar o SAIF:
-
Etapa 1: entender o uso
- Entender qual problema específico do seu negócio a IA vai resolver e os dados necessários para treinar o modelo ajuda a desenvolver a política, os protocolos e os controles que precisam ser implementados como parte do SAIF.
-
Etapa 2: reunir a equipe
- Desenvolver e implantar sistemas de IA, assim como sistemas tradicionais, é um esforço multidisciplinar.
- Sistemas de IA costumam ser complexos e imprecisos, ter várias partes móveis, depender de grandes quantidades de dados e precisar de muitos recursos. Eles podem ser usados para aplicar decisões baseadas em julgamentos e podem gerar novos conteúdos potencialmente ofensivos, nocivos ou que perpetuam estereótipos e preconceitos sociais.
- Defina a equipe multifuncional correta para garantir que segurança, privacidade e considerações sobre risco e compliance estejam incluídas desde o início.
-
Etapa 3: nivelar o conhecimento com um manual de IA
- Conforme as equipes começarem a avaliar os usos comerciais e os vários riscos, complexidades e controles de segurança aplicáveis em constante evolução, vai ser essencial que todas as partes envolvidas entendam o básico sobre o ciclo de vida do desenvolvimento de modelos de IA (em inglês) e o design e a lógica das metodologias do modelo, incluindo suas capacidades, vantagens e limitações.
-
Etapa 4: aplicar os seis elementos-chave do SAIF (listados acima)
- Não é necessário aplicar os elementos em ordem cronológica.
Onde posso encontrar mais informações sobre o SAIF e sobre como aplicar esse framework no meu negócio ou entidade?
Não perca as novidades! O Google vai continuar criando e compartilhando recursos, guias e ferramentas sobre o Secure AI Framework, além de outras práticas recomendadas relacionadas ao desenvolvimento de aplicativos de IA.
Como uma das primeiras empresas a estruturar princípios de IA, estabelecemos os padrões para uma IA responsável. Essas regras sempre nos guiam para desenvolver produtos com segurança. Defendemos e desenvolvemos frameworks do setor para elevar o padrão de excelência na área de segurança e aprendemos que construir uma comunidade para fortalecer esse trabalho é essencial para ter resultados positivos a longo prazo. É por isso que nos dedicamos a construir uma comunidade do SAIF para todos.