Ir para o conteúdo

Escudo azul com o ícone G branco.

Secure AI Framework (SAIF) da Google

O potencial da IA, especialmente da IA generativa, é imenso. À medida que a inovação avança, a indústria precisa de normas de segurança para criar e implementar a IA de forma responsável. Foi por isso que introduzimos a Secure AI Framework (SAIF), uma framework concetual para garantir a segurança dos sistemas de IA.

Seis elementos fundamentais da SAIF

A SAIF foi concebida para dar resposta às principais preocupações dos profissionais de segurança, como a gestão de riscos, a segurança e a privacidade dos modelos de IA/ML, ajudando a garantir que, quando os modelos de IA são implementados, são seguros por predefinição.
  • Expanda bases de segurança sólidas para o ecossistema de IA

  • Alargue a deteção e a resposta para introduzir a IA no universo de ameaças de uma organização

  • Automatize as defesas para acompanhar o ritmo das ameaças existentes e novas

  • Harmonize os controlos ao nível da plataforma para garantir uma segurança consistente em toda a organização

  • Adapte os controlos para ajustar as mitigações e criar ciclos de feedback mais rápidos para a implementação da IA

  • Contextualize os riscos dos sistemas de IA nos processos empresariais circundantes

Permitir um ecossistema mais seguro

Estamos entusiasmados por partilhar os primeiros passos no nosso percurso para criar um ecossistema SAIF entre governos, empresas e organizações, de forma a promover uma framework para uma implementação segura da IA que funcione para todos.
Gráfico que mostra uma grelha rosa a enviar comandos para um ecrã.

Apresentamos a SAIF.Google: a IA segura começa aqui

A SAIF.Google é um hub de recursos para ajudar os profissionais de segurança a navegar no panorama em evolução da segurança da IA. Fornece uma recolha de riscos e controlos de segurança da IA, incluindo um "Relatório de autoavaliação de riscos" para orientar os profissionais na compreensão dos riscos que os podem afetar e na forma de implementar a SAIF nas respetivas organizações. Estes recursos ajudam a responder à necessidade crítica de criar e implementar sistemas de IA seguros no mundo em rápida evolução.
Gráfico de uma constelação com um escudo azul com um G branco no meio, rodeado por ícones de edifício, cadeado, perfil, mundo e documento.

Disponibilizar a SAIF aos governos e organizações

Colaboramos com governos e organizações para ajudar a mitigar os riscos de segurança da IA. O nosso trabalho com responsáveis políticos e organizações de normalização, como o NIST , contribui para a evolução dos quadros regulamentares. Recentemente, destacámos a função da SAIF na segurança dos sistemas de IA, em conformidade com os compromissos em matéria de IA da Casa Branca.
Círculo com logótipos de empresas de tecnologia no interior.

Coalition for Secure AI: expandir a SAIF com aliados da indústria

Estamos a avançar com este trabalho e a promover o apoio da indústria através da formação da Coalition for Secure AI (CoSAI), com membros-fundadores como a Anthropic, a Cisco, a GenLab, a IBM, a Intel, a Nvidia e a PayPal, para enfrentar os desafios críticos na implementação de sistemas de IA seguros.

Recursos adicionais

Perguntas frequentes
sobre a SAIF

Como é que a Google está a pôr a SAIF em prática?

A Google tem uma longa tradição de impulsionar o desenvolvimento da cibersegurança e da IA de forma responsável, e há muitos anos que tem mapeado as práticas recomendadas de segurança para a inovação da IA. A nossa Secure AI Framework é baseada no conjunto de experiências e práticas recomendadas que desenvolvemos e implementámos, e reflete a abordagem da Google para a criação de apps com tecnologia de IA generativa e aprendizagem automática, com proteções dinâmicas, sustentáveis e escaláveis para segurança e privacidade. Vamos continuar a evoluir e desenvolver a SAIF para fazer face a novos riscos, panoramas em mudança e avanços na IA.

Como é que os profissionais podem implementar a framework?

Consulte o nosso guia rápido para implementar a framework SAIF:

  • Passo 1 – Compreenda a utilização
    • Compreender o problema comercial específico que a IA vai resolver e os dados necessários para preparar o modelo vai ser útil para orientar a política, os protocolos e os controlos que têm de ser implementados como parte da SAIF.
  • Passo 2 – Reúna a equipa
    • A programação e a implementação de sistemas de IA, tal como os sistemas tradicionais, são esforços multidisciplinares.
    • Os sistemas de IA são frequentemente complexos e opacos, incluem um grande número de variáveis, dependem de grandes quantidades de dados, consomem muitos recursos, podem ser usados para aplicar decisões baseadas em juízos de valor e podem gerar novo conteúdo que pode ser ofensivo, prejudicial ou perpetuar estereótipos e preconceitos sociais.
    • Crie a equipa multifuncional adequada para garantir que as considerações de segurança, privacidade, risco e conformidade são incluídas desde o início.
  • Passo 3 – Estabeleça noções básicas com uma introdução à IA

    • À medida que as equipas iniciam a avaliação da utilização comercial, das várias complexidades em constante evolução, dos riscos e dos controlos de segurança aplicáveis, é fundamental que as partes envolvidas compreendam as noções básicas do ciclo de vida da programação do modelo de IA , o design e a lógica das metodologias do modelo, incluindo as capacidades, os méritos e as limitações.
  • Passo 4 – Aplique os seis elementos fundamentais da SAIF

    • Estes elementos não se destinam a ser aplicados por ordem cronológica.

Onde posso encontrar mais informações sobre a SAIF e como aplicá-la à minha empresa ou entidade?

Mantenha-se a par de tudo! A Google vai continuar a criar e partilhar recursos, orientações e ferramentas da Secure AI Framework, bem como outras práticas recomendadas na programação da aplicação da IA.

Porque é que apoiamos uma comunidade de IA mais segura para todos

Como uma das primeiras empresas a articular princípios da IA, estabelecemos um padrão para a IA responsável, o qual orienta o nosso desenvolvimento de produtos em função da segurança. Defendemos e desenvolvemos frameworks da indústria para elevar a fasquia da segurança, e aprendemos que a criação de uma comunidade para promover o trabalho é essencial para ter êxito a longo prazo. É por isso que estamos entusiasmados com a criação de uma comunidade SAIF para todos.