Marco para la IA Segura de Google
(SAIF)

El potencial de la IA, especialmente de la IA generativa, es inmenso. A medida que avanza la innovación, el sector necesita estándares de seguridad para desarrollar e introducir la IA de forma responsable. Por eso presentamos el Marco para la IA Segura (SAIF), un marco conceptual para que los sistemas de IA sean seguros.

Seis elementos básicos del Marco para la IA Segura

El Marco para la IA Segura (SAIF) está diseñado para abordar las principales preocupaciones de los profesionales de la seguridad, como la gestión de riesgos de los modelos de inteligencia artificial y aprendizaje automático, la seguridad y la privacidad, lo que ayuda a garantizar que, cuando se adopten los modelos de inteligencia artificial, sean seguros de forma predeterminada.

Introduce unos cimientos de seguridad fuertes en el ecosistema de la IA
Amplía la detección y la respuesta para introducir la IA en el universo de amenazas de las empresas
Automatiza las defensas para hacer frente a las amenazas actuales y futuras
Unifica los controles a nivel de plataforma para garantizar una seguridad uniforme en toda la organización
Adapta los controles para ajustar las medidas de mitigación y crear ciclos de retroalimentación más rápidos para la implementación de la IA
Contextualiza los riesgos de los sistemas de IA en los procesos empresariales colindantes
Descargar PDF
Desarrollamos un ecosistema
más seguro

Estamos encantados de compartir los primeros pasos de nuestro viaje para construir un ecosistema del SAIF entre gobiernos, empresas y organizaciones para promover un marco de implementación segura de la IA que funcione para todos.

Acercamos el Marco para la IA Segura a Gobiernos y organizaciones

Colaboramos con Gobiernos y organizaciones para ayudar a reducir los riesgos de seguridad de la IA. Nuestra colaboración con Gobiernos y organizaciones normalizadoras, como el NIST, contribuye al desarrollo de marcos reguladores. Recientemente hemos desatacado el papel del SAIF en la seguridad de sistemas de IA, en consonancia con los compromisos de IA de la Casa Blanca.

Ampliamos el SAIF con aliados del sector

Estamos fomentando el apoyo del SAIF entre nuestros partners y clientes, organizando talleres sobre SAIF con profesionales y publicando las prácticas recomendadas de seguridad de la IA. Hemos colaborado con Deloitte en la elaboración de un informe sobre cómo las organizaciones pueden utilizar la IA para hacer frente a las pruebas de seguridad.

Recursos adicionales
Preguntas frecuentes sobre el Marco para la IA Segura

¿Qué relación hay entre el SAIF y la IA responsable?

Google tiene el compromiso de desarrollar la IA de forma responsable y de animar a otros a hacer lo mismo. Nuestros principios para la IA, publicados en 2018, describen nuestro compromiso con el desarrollo responsable de tecnología que tenga como base la seguridad, permita una responsabilidad proactiva y mantenga altos estándares de excelencia científica. La IA responsable es nuestro enfoque global, que tiene varias dimensiones, como la "imparcialidad", la "interpretabilidad", la "seguridad" y la "privacidad", que guían todo el desarrollo de productos de IA de Google.

El SAIF es nuestro marco para crear un enfoque estandarizado y exhaustivo de la integración de medidas de seguridad y privacidad en aplicaciones basadas en aprendizaje automático. Está relacionado con las dimensiones de "Seguridad" y "Privacidad" del desarrollo de la IA de forma responsable. El SAIF garantiza que las aplicaciones basadas en aprendizaje automático se desarrollen de forma responsable, teniendo en cuenta la evolución del panorama de las amenazas y las expectativas de los usuarios.

¿Cómo aplica Google el SAIF?

Google tiene un largo historial en el impulso del desarrollo responsable de la IA y la ciberseguridad, y llevamos muchos años adaptando las prácticas recomendadas de seguridad a las innovaciones en IA. Nuestro Marco para la IA Segura se basa en la experiencia y en las prácticas recomendadas que hemos desarrollado e implementado, y refleja el enfoque de Google para crear aplicaciones basadas en IA generativa y aprendizaje automático, con medidas de protección escalables, sostenibles y con capacidad de respuesta para la seguridad y la privacidad. Seguiremos desarrollando y perfeccionando el SAIF para hacer frente a nuevos riesgos, cambios en el entorno y avances en IA.

¿Cómo pueden los profesionales poner el marco en práctica?

Consulta nuestra guía rápida para implementar el marco SAIF:

  • Paso 1: Comprender el uso
    • Comprender el problema empresarial específico que resolverá la IA y los datos necesarios para entrenar el modelo ayudará a definir la política, los protocolos y los controles que deben aplicarse como parte del SAIF.
  • Paso 2: Formar el equipo
    • Desarrollar e implementar sistemas de IA, al igual que sucede con los sistemas tradicionales, es un proceso que implica varias disciplinas.
    • Los sistemas de IA suelen ser complejos y opacos, tienen un gran número de piezas móviles, dependen de grandes cantidades de datos, consumen muchos recursos, pueden utilizarse para aplicar decisiones basadas en opiniones y pueden generar contenidos novedosos que pueden ser ofensivos, perjudiciales o perpetuar estereotipos y prejuicios sociales.
    • Se debe establecer el equipo multifuncional adecuado para garantizar que las consideraciones de seguridad, privacidad, riesgo y cumplimiento se incluyan desde el principio.
  • Paso 3: Poner a todos de acuerdo con una presentación básica de la IA
    • A medida que los equipos se embarcan en la evaluación del uso empresarial, las diversas y cambiantes complejidades, los riesgos y los controles de seguridad aplicables, es fundamental que las partes implicadas comprendan los aspectos básicos del ciclo de vida de desarrollo de modelos de IA, el diseño y la lógica de las metodologías de modelos, incluidas las capacidades, los méritos y las limitaciones.
  • Paso 4: Aplicar los seis elementos básicos del SAIF (enumerados anteriormente)
    • No es necesario que estos elementos se apliquen en orden cronológico.

¿Dónde puedo encontrar más información sobre el SAIF y cómo aplicarlo a mi empresa o entidad?

¡No te lo pierdas! Google seguirá creando y compartiendo recursos, orientaciones y herramientas del Marco para la IA Segura, junto con otras prácticas recomendadas para el desarrollo de aplicaciones de IA.

Razones por las que fomentamos una comunidad de IA segura para todos

Al ser una de las primeras empresas en desarrollar unos principios de IA, hemos establecido el estándar para una IA responsable, que sirve de guía para el desarrollo de nuestros productos en materia de seguridad. Hemos promovido y creado marcos para elevar el listón de seguridad en el sector, y hemos llegado a la conclusión de que, para seguir avanzando a largo plazo, hay que colaborar con la comunidad. Por esa razón, estamos felices de construir la comunidad del SAIF para todos.

Ciberseguridad

Descubre cómo trabajamos cada día para hacer que Internet sea más seguro