Ir al contenido

Escudo azul con el icono de la "G" de Google en blanco.

Marco para la IA Segura de Google (SAIF)

El potencial de la IA, especialmente de la IA generativa, es inmenso. A medida que avanza la innovación, el sector necesita estándares de seguridad para desarrollar e introducir la IA de forma responsable. Por eso, presentamos el Marco para la IA Segura (SAIF), un marco conceptual para que los sistemas de IA sean seguros.

Seis elementos clave del SAIF

El SAIF está diseñado para abordar las principales preocupaciones de los profesionales de la seguridad, como la gestión de riesgos, la seguridad y la privacidad de los modelos de inteligencia artificial y aprendizaje automático, lo que ayuda a asegurar que, cuando se adopten los modelos de inteligencia artificial, sean seguros desde el diseño.
  • Ampliar cimientos de seguridad sólidos al ecosistema de la IA

  • Ampliar la detección y la respuesta para introducir la IA en el universo de amenazas de las empresas

  • Automatizar las defensas para hacer frente a las amenazas actuales y futuras

  • Unificar los controles a nivel de plataforma para lograr una seguridad coherente en toda la empresa

  • Adaptar los controles para ajustar las medidas de mitigación y crear ciclos de retroalimentación más rápidos para la implementación de la IA

  • Contextualizar los riesgos de los sistemas de IA en los procesos empresariales del entorno

Favorecemos un ecosistema más seguro

Estamos encantados de compartir los primeros pasos de nuestro camino para construir un ecosistema del SAIF entre gobiernos, empresas y organizaciones para promover un marco de implementación segura de la IA que funcione para todos.
Gráfico que muestra una cuadrícula rosa que envía peticiones a una pantalla.

Presentamos SAIF.Google: el inicio de la IA segura

SAIF.Google es un centro de recursos para ayudar a profesionales de la seguridad a familiarizarse con los desafíos de la seguridad de la IA que evoluciona sin cesar. Este centro recopila riesgos y controles de seguridad en el ámbito de la IA, e incluye un informe de autoevaluación para informar a los profesionales sobre los riesgos que pueden afectarles y cómo implementar el SAIF en sus organizaciones. Estos recursos ayudarán a responder a la urgente necesidad de crear y desplegar sistemas de IA seguros en un contexto donde la IA evoluciona a pasos agigantados.
Gráfico de una constelación con un escudo azul con una G blanca en el centro, rodeado de iconos de un edificio, un candado, un perfil, el mundo y un documento.

Acercar el SAIF a gobiernos y organizaciones

Colaboramos con gobiernos y organizaciones para ayudar a reducir los riesgos de seguridad de la IA. Nuestra colaboración con gobiernos y organizaciones normalizadoras, como el NIST, contribuye al desarrollo de marcos reguladores. Recientemente hemos destacado el papel del SAIF en la seguridad de sistemas de IA, en consonancia con los compromisos de IA de la Casa Blanca.
Círculo con logotipos de empresas tecnológicas en su interior.

Coalición por una IA Segura: ampliamos el SAIF con aliados del sector

Estamos desarrollando esta iniciativa y fomentando su apoyo en el sector mediante la formación de la Coalición por una IA Segura (CoSAI), con miembros fundadores como Anthropic, Cisco, GenLab, IBM, Intel, Nvidia y PayPal, para abordar los retos clave a la hora de implementar sistemas de IA seguros.

Otros recursos

Preguntas frecuentes
sobre el Marco para la IA Segura

¿Cómo aplica Google el SAIF?

Google tiene un largo historial en el impulso del desarrollo responsable de la IA y la ciberseguridad, y llevamos muchos años adaptando las prácticas recomendadas de seguridad a las innovaciones en IA. Nuestro Marco para la IA Segura se basa en la experiencia y en las prácticas recomendadas que hemos desarrollado e implementado, y refleja el enfoque de Google para crear aplicaciones basadas en IA generativa y aprendizaje automático, con medidas de protección escalables, sostenibles y con capacidad de respuesta para la seguridad y la privacidad. Seguiremos desarrollando y perfeccionando el SAIF para hacer frente a nuevos riesgos, cambios en el entorno y avances en IA.

¿Cómo pueden los profesionales poner el marco en práctica?

Consulta nuestra guía rápida para implementar el marco SAIF:

  • Paso 1: Comprender el uso
    • Comprender el problema empresarial específico que resolverá la IA y los datos necesarios para entrenar el modelo ayudará a desarrollar la política, los protocolos y los controles que deben aplicarse como parte del SAIF.
  • Paso 2: Crear el equipo
    • El desarrollo y la implementación de sistemas de IA, al igual que sucede con los sistemas tradicionales, son procesos que implican varias disciplinas.
    • Los sistemas de IA suelen ser complejos y opacos, tienen un gran número de piezas móviles, dependen de grandes cantidades de datos, consumen muchos recursos, pueden utilizarse para aplicar decisiones basadas en opiniones y pueden generar contenidos novedosos que pueden ser ofensivos, perjudiciales o perpetuar estereotipos y prejuicios sociales.
    • Se debe establecer el equipo multifuncional adecuado para asegurar que las consideraciones de seguridad, privacidad, riesgo y cumplimiento se incluyan desde el principio.
  • Paso 3: Poner a todos de acuerdo con una presentación básica de la IA

    • A medida que los equipos se embarcan en la evaluación del uso empresarial, las diversas y cambiantes complejidades, los riesgos y los controles de seguridad aplicables, es fundamental que las partes implicadas comprendan los aspectos básicos del ciclo de vida de desarrollo de modelos de IA , el diseño y la lógica de las metodologías de los modelos, incluidas las capacidades, los méritos y las limitaciones.
  • Paso 4: Aplicar los seis elementos clave del SAIF

    • No es necesario que estos elementos se apliquen en orden cronológico.

¿Dónde puedo encontrar más información sobre el SAIF y cómo aplicarlo a mi empresa o entidad?

No te lo pierdas. Google seguirá creando y compartiendo recursos, directrices y herramientas del Marco para la IA Segura, junto con otras prácticas recomendadas para el desarrollo de aplicaciones de IA.

Razones por las que fomentamos una comunidad de IA segura para todos

Al ser una de las primeras empresas en desarrollar unos principios de IA, hemos establecido el estándar para unaIA responsable, que sirve de guía para el desarrollo de nuestros productos en materia seguridad. Hemos promovido y creado marcos para elevar el listón de seguridad en el sector, y hemos llegado a la conclusión de que, para seguir avanzando a largo plazo, hay que colaborar con la comunidad. Por esa razón, estamos encantados de construir la comunidad del SAIF para todos.