Ir al contenido

Escudo azul con un ícono de una letra G blanca.

Secure AI Framework (SAIF) de Google

El potencial de la IA, en especial la IA generativa, es inmenso. Con los avances de las innovaciones, la industria necesita estándares de seguridad para crear y para implementar la IA con responsabilidad. Por ese motivo, presentamos el Secure AI Framework (SAIF), un framework conceptual para proteger los sistemas de IA.

Seis elementos troncales del SAIF

El SAIF está diseñado para abordar cuestiones fundamentales para los profesionales de la seguridad, como la administración de riesgos de modelos de IA/AA, la seguridad y la privacidad, lo que ayuda a garantizar que, al momento de implementar modelos de IA, se encuentren protegidos de forma predeterminada.
  • Extiende nuestras sólidas bases de seguridad al ecosistema de IA

  • Amplifica la detección y la respuesta para incorporar la IA al universo de las amenazas de una organización

  • Automatiza las defensas para seguir el ritmo a las amenazas nuevas y existentes

  • Estandariza los controles del nivel de la plataforma para garantizar una seguridad uniforme en toda la organización

  • Adapta controles para ajustar las mitigaciones y crear ciclos de retroalimentación más rápidos con el propósito de implementar la IA

  • Contextualiza los riesgos del sistema de IA en los procesos comerciales del entorno

Creamos un ecosistema más seguro

Nos complace compartir los primeros pasos en nuestro recorrido para crear un ecosistema de SAIF junto con entidades gubernamentales, empresas y organizaciones con el objetivo de avanzar en la creación de un framework para la implementación de IA segura que funcione para todos.
Gráfico que muestra una cuadrícula rosa que envía instrucciones a una pantalla.

Presentamos SAIF.Google: la IA segura comienza aquí

SAIF.Google es un centro de recursos para ayudar a los profesionales de la seguridad a navegar el entorno en constante cambio de la seguridad con IA. Ofrece una recopilación de riesgos y controles de seguridad con IA, incluido un “Risk Self-Assessment Report” (informe de autodiagnóstico de riesgos) para orientar a los profesionales a la hora de comprender los riesgos que podrían afectarlos y cómo implementar el SAIF en sus organizaciones. Estos recursos ayudarán a abordar la necesidad crítica de crear e implementar sistemas de IA seguros en un mundo en constante evolución.
Gráfico de constelación con un escudo azul con una G blanca en el centro, rodeado de íconos de edificio, candado, perfil, globo terráqueo y documento.

Incorporación del SAIF en entidades gubernamentales y organizaciones

Colaboramos con entidades gubernamentales y organizaciones para ayudar a mitigar los riesgos de seguridad relacionados con la IA. Nuestro trabajo con legisladores y organizaciones para el desarrollo de estándares, como el NIST, contribuye a la evolución de marcos regulatorios. Recientemente, destacamos el rol del SAIF en la protección de los sistemas de IA, en consonancia con los compromisos de IA de la Casa Blanca.
Círculo con logotipos de empresas de tecnología en el interior.

Coalition for Secure AI: expansión del SAIF con aliados de la industria

Con la creación de la Coalition for Secure AI (CoSAI), buscamos realizar avances en esta área y fomentar el apoyo de la industria junto con miembros fundadores como Anthropic, Cisco, GenLab, IBM, Intel, NVIDIA y PayPal, para enfrentar desafíos críticos en la implementación de sistemas de IA seguros.

Recursos adicionales

Preguntas frecuentes
sobre el SAIF

¿Cómo incorpora Google el SAIF?

Google tiene un largo historial de impulsar el desarrollo responsable de la IA y la ciberseguridad. Además, hemos diseñado las prácticas recomendadas de seguridad durante muchos años. Secure AI Framework se basa en la experiencia y las prácticas recomendadas que desarrollamos e implementamos, y refleja el enfoque de Google para crear apps impulsadas por IA generativa y AA, con protecciones responsivas, sustentables y escalables para la seguridad y la privacidad. Seguiremos mejorando y desarrollando el SAIF para abordar nuevos riesgos, cambios en el entorno cibernético y los avances en la IA.

¿Cómo pueden implementar el framework los profesionales?

Consulta nuestra guía rápida para implementar el framework del SAIF:

  • Paso 1: Comprender el uso
    • Comprender el problema de negocio específico que la IA resolverá y los datos necesarios para entrenar el modelo ayudará a impulsar la política, los protocolos y los controles que deben implementarse como parte del SAIF.
  • Paso 2: Crear el equipo
    • El desarrollo y la implementación de sistemas de IA, al igual que los sistemas tradicionales, requieren esfuerzos multidisciplinarios.
    • Los sistemas de IA suelen ser complejos y poco transparentes, tienen una gran cantidad de piezas móviles, dependen de grandes volúmenes de datos, utilizan muchos recursos, se pueden usar para tomar decisiones basadas en criterios y pueden generar contenido nuevo que puede ser ofensivo o dañino, o bien perpetuar estereotipos y sesgos sociales.
    • Establece un equipo multidisciplinario para asegurarte de que se tengan en cuenta la seguridad, la privacidad, los riesgos y el cumplimiento desde el principio.
  • Paso 3: Establecer niveles con un manual de IA

    • A medida que los equipos comienzan a evaluar el uso comercial de la IA, las diferentes complejidades que se desarrollan, los riesgos y los controles de seguridad pertinentes, resulta fundamental que las partes involucradas comprendan los conceptos básicos del ciclo de vida del desarrollo de modelos de IA y el diseño y la lógica de las metodologías del modelo, incluidas las funciones, los méritos y las limitaciones.
  • Paso 4: Aplicar los seis elementos troncales del SAIF

    • No es necesario aplicar estos elementos en orden cronológico.

¿Dónde puedo encontrar más información sobre el SAIF y sobre cómo aplicarlo a mi empresa o entidad?

¡No te pierdas las novedades! Google seguirá creando y compartiendo recursos, instructivos y herramientas relacionadas con el Secure AI Framework (SAIF) junto con otras prácticas recomendadas para el desarrollo de aplicaciones con IA.

Por qué impulsamos una comunidad de IA segura para todos

Siendo una de las primeras empresas en articular los principios de la IA, establecimos el estándar para la IA responsable, que sirve como guía en el desarrollo de productos para la seguridad. Promovemos y desarrollamos frameworks de la industria para elevar el nivel de seguridad y descubrimos que crear una comunidad para avanzar en esta tarea es fundamental para tener éxito a largo plazo. Por ese motivo, nos entusiasma crear una comunidad de SAIF para todo el mundo.