Secure AI Framework
(SAIF) da Google

O potencial da IA, especialmente da IA generativa, é imenso. À medida que a inovação avança, a indústria precisa de normas de segurança para criar e implementar a IA de forma responsável. É por isso que introduzimos a Secure AI Framework (SAIF), uma framework concetual para garantir a segurança dos sistemas de IA.

Seis elementos principais da SAIF

A SAIF foi concebida para dar resposta às principais preocupações dos profissionais de segurança, como a gestão de riscos, a segurança e a privacidade dos modelos de IA/ML, ajudando a garantir que, quando os modelos de IA são implementados, são seguros por predefinição.

Expanda bases de segurança sólidas para o ecossistema de IA
Alargue a deteção e a resposta para introduzir a IA no universo de ameaças de uma organização
Automatize as defesas para acompanhar o ritmo das ameaças existentes e novas
Harmonize os controlos ao nível da plataforma para garantir uma segurança consistente em toda a organização
Adapte os controlos para ajustar as mitigações e criar ciclos de feedback mais rápidos para a implementação da IA
Contextualize os riscos dos sistemas de IA nos processos empresariais circundantes
Transferir PDF
Ativar um ecossistema mais seguro

Estamos entusiasmados por partilhar os primeiros passos no nosso percurso para criar um ecossistema SAIF entre governos, empresas e organizações, de forma a promover uma framework para uma implementação segura da IA que funcione para todos.

Disponibilizar a SAIF aos governos e organizações

Colaboramos com governos e organizações para ajudar a mitigar os riscos de segurança da IA. O nosso trabalho com responsáveis políticos e organizações de normalização, como o NIST, contribui para a evolução das frameworks regulamentares. Recentemente, destacámos a função da SAIF na segurança dos sistemas de IA, em conformidade com os compromissos em matéria de IA da Casa Branca.

Expandir a SAIF com os aliados da indústria

Estamos a promover o apoio da indústria à SAIF junto de parceiros e clientes, organizando workshops sobre a SAIF com profissionais e publicando práticas recomendadas de segurança de IA. Estabelecemos uma parceria com a Deloitte num documento técnico sobre a forma como as organizações podem usar a IA para resolver desafios de segurança.

Recursos adicionais
Perguntas frequentes sobre a SAIF

Qual é a relação entre a SAIF e a IA responsável?

Para a Google, é imperativo criar a IA de forma responsável e capacitar outros a fazer o mesmo. Os nossos princípios da IA, publicados em 2018, descrevem o nosso compromisso de desenvolver tecnologia de forma responsável e concebida em função da segurança, que permita a responsabilização e mantenha elevados padrões de excelência científica. A IA responsável é a nossa abordagem global que tem várias dimensões, como "Imparcialidade", "Interpretabilidade", "Segurança" e "Privacidade", que orientam todo o desenvolvimento de produtos de IA da Google.

A SAIF é a nossa framework para a criação de uma abordagem padronizada e holística de integração de medidas de segurança e privacidade em aplicações com tecnologia de ML. Está alinhada com as dimensões "Segurança" e "Privacidade" da criação da IA de forma responsável. A SAIF garante que as aplicações com tecnologia de ML são desenvolvidas de forma responsável, tendo em conta a evolução do panorama de ameaças e das expetativas dos utilizadores.

Como é que a Google está a pôr a SAIF em prática?

A Google tem uma longa tradição de impulsionar o desenvolvimento da cibersegurança e da IA de forma responsável, e há muitos anos que temos mapeado as práticas recomendadas de segurança para a inovação da IA. A nossa Secure AI Framework é baseada no conjunto de experiências e práticas recomendadas que desenvolvemos e implementámos, e reflete a abordagem da Google para a criação de apps com tecnologia de IA gen e ML, com proteções dinâmicas, sustentáveis e escaláveis para segurança e privacidade. Vamos continuar a evoluir e desenvolver a SAIF para fazer face a novos riscos, panoramas em mudança e avanços na IA.

Como é que os profissionais podem implementar a framework?

Veja o nosso guia rápido para implementar a framework SAIF:

  • Passo 1 – Compreenda a utilização
    • Compreender o problema comercial específico que a IA vai resolver e os dados necessários para preparar o modelo vai ser útil para orientar a política, os protocolos e os controlos que têm de ser implementados como parte da SAIF.
  • Passo 2 – Reúna a equipa
    • A programação e a implementação de sistemas de IA, tal como os sistemas tradicionais, são esforços multidisciplinares.
    • Os sistemas de IA são frequentemente complexos e opacos, têm um grande número de variáveis, dependem de grandes quantidades de dados, consomem muitos recursos, podem ser usados para aplicar decisões baseadas em juízos de valor e podem gerar novos conteúdos que podem ser ofensivos, prejudiciais ou perpetuar estereótipos e preconceitos sociais.
    • Crie a equipa multifuncional adequada para garantir que as considerações de segurança, privacidade, risco e conformidade são incluídas desde o início.
  • Passo 3 – Estabeleça noções básicas com uma introdução à IA
    • À medida que as equipas iniciam a avaliação da utilização comercial, das várias complexidades em constante evolução, dos riscos e dos controlos de segurança aplicáveis, é fundamental que as partes envolvidas compreendam as noções básicas do ciclo de vida da programação do modelo de IA, o design e a lógica das metodologias do modelo, incluindo as capacidades, os méritos e as limitações.
  • Passo 4 – Aplique os seis elementos fundamentais da SAIF (indicados acima)
    • Estes elementos não se destinam a ser aplicados por ordem cronológica.

Onde posso encontrar mais informações sobre a SAIF e como aplicá-la à minha empresa ou entidade?

Mantenha-se a par! A Google vai continuar a criar e partilhar recursos, orientações e ferramentas da Secure AI Framework, bem como outras práticas recomendadas na programação da aplicação da IA.

Porque apoiamos uma comunidade de IA mais segura para todos

Como uma das primeiras empresas a articular os princípios da IA, estabelecemos um padrão para a IA responsável, o qual orienta o nosso desenvolvimento de produtos em função da segurança. Defendemos e desenvolvemos frameworks da indústria para elevar a fasquia da segurança, e aprendemos que a criação de uma comunidade para promover o trabalho é essencial para ter êxito a longo prazo. É por isso que estamos entusiasmados com a criação de uma comunidade SAIF para todos.

Avanços na cibersegurança

Saiba como mantemos mais pessoas seguras online em todo o mundo do que qualquer outra empresa.