Framework de IA segura (SAIF) de Google
El potencial de la IA, en especial la IA generativa, es inmenso. Con los avances de las innovaciones, la industria necesita estándares de seguridad para crear y desarrollar IA de manera responsable. Por ese motivo, presentamos el Framework de IA segura (SAIF), un framework conceptual para proteger los sistemas de IA.
El SAIF está diseñado para abordar cuestiones fundamentales para los profesionales de la seguridad, como la administración de riesgos de modelos de IA/AA, la seguridad y la privacidad, lo que ayuda a garantizar que, al momento de implementar modelos de IA, se encuentren protegidos de forma predeterminada.
Nos complace compartir los primeros pasos en nuestro recorrido para crear un ecosistema de SAIF junto con Gobiernos, empresas y organizaciones con el objetivo de avanzar en la creación de un framework para la implementación de IA segura que funcione para todos.
Incorporación del SAIF en Gobiernos y organizaciones
Colaboramos con gobiernos y organizaciones para ayudar a mitigar los riesgos de seguridad relacionados con la IA. Nuestro trabajo con legisladores y organizaciones de estándares, como NIST, contribuye a la evolución de frameworks regulatorios. Recientemente, destacamos el rol del SAIF en la protección de sistemas de IA, en consonancia con los compromisos de IA de la Casa Blanca.
Expansión del SAIF con aliados de la industria
Promovemos el apoyo al SAIF por parte de la industria con socios y clientes a través de talleres con profesionales y la publicación de prácticas recomendadas para la seguridad de IA. Nos asociamos con Deloitte para realizar un informe sobre cómo las organizaciones pueden usar la IA para abordar los desafíos de seguridad.
-
Android: Guías de desarrollo seguro
Protege tu organización con alertas de vulnerabilidad en tiempo real de Android y sigue los lineamientos de desarrollo seguro para el código de AA.
¿Cómo se relacionan el SAIF y la IA responsable?
Para Google, es imprescindible crear una IA de manera responsable y capacitar a los demás para que hagan lo mismo. Nuestros principios de la IA, publicados en 2018, describen nuestro compromiso con el desarrollo responsable de tecnologías de una manera que considere la seguridad, fomente la responsabilidad y mantenga estándares altos en cuanto a la excelencia científica. La IA responsable es nuestro enfoque general que cuenta con varias dimensiones, como la "equidad", la "interpretabilidad", la "seguridad" y la "privacidad", que sirven como guía para el desarrollo de productos con IA de Google.
El SAIF es nuestro framework para la creación de un enfoque integral y estandarizado para incorporar medidas de seguridad y privacidad a aplicaciones con AA. Se alinea con las dimensiones de "seguridad" y "privacidad" de la creación responsable de IA. El SAIF garantiza que las aplicaciones con AA se desarrollen de manera responsable, teniendo en cuenta las expectativas de los usuarios y el entorno cibernético en constante evolución.
¿De qué manera incorpora Google el SAIF?
Google tiene un largo historial de impulsar el desarrollo responsable de IA y ciberseguridad. Además, hemos trazado un mapa de las prácticas recomendadas de seguridad durante muchos años. Nuestro Framework de IA segura se basa en la experiencia y las prácticas recomendadas que desarrollamos e implementamos, y refleja el enfoque de Google para crear apps impulsadas con IA generativa y AA, con protecciones responsivas, sustentables y escalables para la seguridad y la privacidad. Seguiremos mejorando y desarrollando el SAIF para abordar nuevos riesgos, cambios en el entorno cibernético y los avances en la IA.
¿De qué manera pueden implementar el framework los profesionales?
Consulta nuestra guía rápida para implementar el framework de SAIF:
-
Paso 1: Comprender el uso
- Comprender el problema comercial específico que resolverá la IA y conocer los datos necesarios para entrenar el modelo ayudará a impulsar las políticas, los protocolos y los controles que se deben implementar como parte del SAIF.
-
Paso 2: Crear el equipo
- El desarrollo y la implementación de sistemas de IA, al igual que los sistemas tradicionales, requieren esfuerzos multidisciplinarios.
- Los sistemas de IA suelen ser complejos y poco transparentes, tienen una gran cantidad de piezas móviles, dependen de grandes volúmenes de datos, utilizan muchos recursos, se pueden usar para tomas decisiones basadas en criterios y pueden generar contenido nuevo que puede ser ofensivo, dañino o perpetuar estereotipos y sesgos sociales.
- Establece un equipo multifuncional para asegurarte de que se tenga en cuenta la seguridad, la privacidad, los riesgos y el cumplimiento desde el principio.
-
Paso 3: Establecer niveles con un manual de IA
- A medida que los equipos comienzan a evaluar el uso comercial, las diferentes complejidades que se desarrollan, los riesgos y los controles de seguridad pertinentes, resulta fundamental que las partes involucradas comprendan los conceptos básicos del ciclo de vida del desarrollo de modelos de IA y el diseño y la lógica de las metodologías del modelo, incluidas las funciones, los méritos y las limitaciones.
-
Paso 4: Aplicar los seis elementos fundamentales del SAIF (enumerados más arriba)
- No es necesario aplicarlos en orden cronológico.
¿Dónde puedo encontrar más información sobre el SAIF y sobre cómo aplicarlo a mi empresa o entidad?
¡No te pierdas las novedades! Google seguirá creando y compartiendo recursos, instructivos y herramientas relacionadas con el Framework de IA segura (SAIF) junto con otras prácticas recomendadas para el desarrollo de aplicaciones con IA.
Siendo una de las primeras empresas en articular los principios de IA, establecimos un estándar de IA responsable que sirve como guía en el desarrollo de productos para la seguridad. Promovemos y desarrollamos frameworks de la industria para elevar el nivel de seguridad y descubrimos que crear una comunidad para avanzar en el trabajo es fundamental para tener éxito a largo plazo. Por ese motivo, nos entusiasma crear una comunidad de SAIF para todo el mundo.