Estrutura Segura de IA do Google (SAIF)
O potencial da IA, principalmente da IA generativa, é imenso. Conforme a inovação avança, o setor precisa de padrões de segurança para desenvolver e implantar a inteligência artificial de maneira responsável. Por isso apresentamos a Estrutura Segura de IA (SAIF) (em inglês), um framework conceitual que oferece mais segurança aos sistemas de IA.
O SAIF foi projetado para lidar com as principais preocupações dos profissionais de segurança, como proteção, privacidade e gerenciamento de risco dos modelos de IA/ML, ajudando a garantir que a implementação dos modelos seja segura por padrão.
É um prazer compartilhar as primeiras etapas da nossa jornada para construir um ecossistema do SAIF em governos, empresas e organizações, desenvolvendo um framework para uma implantação segura de IA que funcione para todos.
Conheça o SAIF.Google: sua jornada para a segurança da IA começa aqui
O SAIF.Google é uma nova central de recursos para os profissionais de segurança conhecerem melhor esse setor dinâmico da inteligência artificial. Ele destaca uma variedade de perigos e maneiras de proteger a IA, incluindo um relatório de autoavaliação de riscos, que ajuda os profissionais a identificar potenciais problemas e a integrar o SAIF em suas empresas. Com esses recursos, você vai aprender a atender à demanda crescente pela criação e implementação de sistemas seguros de IA em um setor que evolui rapidamente.
Acordo de IA segura: expansão do SAIF com aliados do setor
Estamos ampliando esse trabalho e incentivando o apoio ao setor formando o Acordo de IA segura (CoSAI), que inclui como membros fundadores empresas como Anthropic, Amazon, Cisco, Cohere, Chainguard, GenLab, Google, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz, com o objetivo de superar os desafios na criação de sistemas de IA seguros.
Uso do SAIF em governos e organizações
Colaboramos com governos e organizações para ajudar a mitigar riscos de segurança relacionados à IA. Nosso trabalho com formuladores de políticas e agências reguladoras, como o NIST (em inglês), contribui para a evolução das normas. Recentemente, reiteramos o papel do SAIF para a segurança de sistemas de IA, em alinhamento com os compromissos de IA da Casa Branca (em inglês).
-
Android: diretrizes de desenvolvimento seguro
Proteja sua organização com os alertas de vulnerabilidade em tempo real do Android e siga as diretrizes de desenvolvimento seguro de códigos de ML.
Qual é a relação entre o SAIF e a IA responsável?
O Google tem como imperativo desenvolver inteligência artificial de maneira responsável e possibilitar que outros façam o mesmo. Nossos princípios de IA, publicados em 2018, descrevem nosso compromisso de desenvolver tecnologia com responsabilidade e segurança, permitindo prestação de contas e a defesa do mais alto padrão de excelência científica. A IA responsável é nossa abordagem abrangente com várias dimensões, como justiça, interpretabilidade, segurança e privacidade, que guiam o desenvolvimento de todos os produtos com IA do Google.
O SAIF é nosso framework para a criação de uma abordagem padronizada e holística, que integre medidas de segurança e privacidade em aplicativos com tecnologia de ML. Ele está alinhado com as dimensões de segurança e privacidade da criação de IA responsável. O SAIF garante que aplicativos com tecnologia de ML sejam desenvolvidos de modo responsável, considerando o cenário de ameaças em constante evolução e as expectativas dos usuários.
Como o Google está colocando o SAIF em prática?
O Google tem um longo histórico de desenvolvimento de IA responsável e segurança cibernética e, há vários anos, mapeia as práticas recomendadas de segurança relacionadas a inovações na área. Nossa Estrutura Segura de IA do Google surge desse conjunto de experiências e práticas recomendadas que desenvolvemos e implementamos. Isso reflete a abordagem do Google ao criar apps baseados em tecnologia de ML e IA generativa, com proteções responsivas, sustentáveis e escalonáveis para sua segurança e privacidade. Vamos continuar desenvolvendo o SAIF para que ele possa lidar com novos riscos, cenários variáveis e avanços em inteligência artificial.
Como profissionais podem implementar o framework?
Acesse nosso guia rápido (em inglês) para implementar o SAIF:
-
Etapa 1: entender o uso
- Entender qual problema específico do seu negócio a IA vai resolver e os dados necessários para treinar o modelo ajuda a desenvolver a política, os protocolos e os controles que precisam ser implementados como parte do SAIF.
-
Etapa 2: reunir a equipe
- Desenvolver e implantar sistemas de IA, assim como sistemas tradicionais, é um esforço multidisciplinar.
- Sistemas de IA costumam ser complexos e imprecisos, ter várias partes móveis, depender de grandes quantidades de dados e precisar de muitos recursos. Eles podem ser usados para aplicar decisões baseadas em julgamentos e podem gerar novos conteúdos potencialmente ofensivos, nocivos ou que perpetuam estereótipos e preconceitos sociais.
- Defina a equipe multifuncional correta para garantir que segurança, privacidade e considerações sobre risco e compliance estejam incluídas desde o início.
-
Etapa 3: nivelar o conhecimento com um manual de IA
- Conforme as equipes começarem a avaliar os usos comerciais e os vários riscos, complexidades e controles de segurança aplicáveis em constante evolução, vai ser essencial que todas as partes envolvidas entendam o básico sobre o ciclo de vida do desenvolvimento de modelos de IA (em inglês) e o design e a lógica das metodologias do modelo, incluindo suas capacidades, vantagens e limitações.
-
Etapa 4: aplicar os seis elementos-chave do SAIF (listados acima)
- Não é necessário aplicar os elementos em ordem cronológica.
Onde posso encontrar mais informações sobre o SAIF e sobre como aplicar esse framework no meu negócio ou entidade?
Não perca as novidades! O Google vai continuar criando e compartilhando recursos, guias e ferramentas sobre o Secure AI Framework, além de outras práticas recomendadas relacionadas ao desenvolvimento de aplicativos de IA.
Como uma das primeiras empresas a estruturar princípios de IA, estabelecemos os padrões para uma IA responsável. Essas regras sempre nos guiam para desenvolver produtos com segurança. Defendemos e desenvolvemos frameworks do setor para elevar o padrão de excelência na área de segurança e aprendemos que construir uma comunidade para fortalecer esse trabalho é essencial para ter resultados positivos a longo prazo. É por isso que nos dedicamos a construir uma comunidade do SAIF para todos.