Framework de IA segura (SAIF) de Google
El potencial de la IA, en especial la IA generativa, es inmenso. Con los avances de las innovaciones, la industria necesita estándares de seguridad para crear y desarrollar IA de manera responsable. Por ese motivo, presentamos el Framework de IA segura (SAIF), un framework conceptual para proteger los sistemas de IA.
El SAIF está diseñado para abordar cuestiones fundamentales para los profesionales de la seguridad, como la administración de riesgos de modelos de IA/AA, la seguridad y la privacidad, lo que ayuda a garantizar que, al momento de implementar modelos de IA, se encuentren protegidos de forma predeterminada.
Nos complace compartir los primeros pasos en nuestro recorrido para crear un ecosistema de SAIF junto con Gobiernos, empresas y organizaciones con el objetivo de avanzar en la creación de un framework para la implementación de IA segura que funcione para todos.
Presentamos SAIF.Google: La IA segura comienza aquí
SAIF.Google es un nuevo centro de recursos para ayudar a los profesionales de la seguridad a navegar el entorno en constante cambio de la seguridad con IA. Ofrece una recopilación de riesgos y controles de seguridad con IA, incluido un “Risk Self-Assessment Report” (informe de autodiagnóstico de riesgos) para orientar a los profesionales a la hora de comprender los riesgos que podrían afectarlos y cómo implementar SAIF en sus organizaciones. Estos recursos ayudarán a abordar la necesidad crítica de construir e implementar sistemas de IA seguros en un mundo de IA en rápida evolución.
Coalition for Secure AI: Expandir SAIF con aliados de la industria
Con la creación de la “Coalition for Secure AI (CoSAI)”, buscamos realizar avances en esta área y fomentar el apoyo de la industria junto con miembros fundadores como Anthropic, Amazon, Cisco, Cohere, Chainguard, GenLab, Google, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal y Wiz, para enfrentar desafíos críticos en la implementación de sistemas de IA seguros.
Incorporación del SAIF en Gobiernos y organizaciones
Colaboramos con gobiernos y organizaciones para ayudar a mitigar los riesgos de seguridad relacionados con la IA. Nuestro trabajo con legisladores y organizaciones de estándares, como NIST, contribuye a la evolución de frameworks regulatorios. Recientemente, destacamos el rol del SAIF en la protección de sistemas de IA, en consonancia con los compromisos de IA de la Casa Blanca .
-
Android: Guías de desarrollo seguro
Protege tu organización con alertas de vulnerabilidad en tiempo real de Android y sigue los lineamientos de desarrollo seguro para el código de AA.
¿Cómo se relacionan el SAIF y la IA responsable?
Para Google, es imprescindible crear una IA de manera responsable y capacitar a los demás para que hagan lo mismo. Nuestros principios de la IA, publicados en 2018, describen nuestro compromiso con el desarrollo responsable de tecnologías de una manera que considere la seguridad, fomente la responsabilidad y mantenga estándares altos en cuanto a la excelencia científica. La IA responsable es nuestro enfoque general que cuenta con varias dimensiones, como la "equidad", la "interpretabilidad", la "seguridad" y la "privacidad", que sirven como guía para el desarrollo de productos con IA de Google.
El SAIF es nuestro framework para la creación de un enfoque integral y estandarizado para incorporar medidas de seguridad y privacidad a aplicaciones con AA. Se alinea con las dimensiones de "seguridad" y "privacidad" de la creación responsable de IA. El SAIF garantiza que las aplicaciones con AA se desarrollen de manera responsable, teniendo en cuenta las expectativas de los usuarios y el entorno cibernético en constante evolución.
¿De qué manera incorpora Google el SAIF?
Google tiene un largo historial de impulsar el desarrollo responsable de IA y ciberseguridad. Además, hemos trazado un mapa de las prácticas recomendadas de seguridad durante muchos años. Nuestro Framework de IA segura se basa en la experiencia y las prácticas recomendadas que desarrollamos e implementamos, y refleja el enfoque de Google para crear apps impulsadas con IA generativa y AA, con protecciones responsivas, sustentables y escalables para la seguridad y la privacidad. Seguiremos mejorando y desarrollando el SAIF para abordar nuevos riesgos, cambios en el entorno cibernético y los avances en la IA.
¿De qué manera pueden implementar el framework los profesionales?
Consulta nuestra guía rápida para implementar el framework de SAIF:
-
Paso 1: Comprender el uso
- Comprender el problema comercial específico que resolverá la IA y conocer los datos necesarios para entrenar el modelo ayudará a impulsar las políticas, los protocolos y los controles que se deben implementar como parte del SAIF.
-
Paso 2: Crear el equipo
- El desarrollo y la implementación de sistemas de IA, al igual que los sistemas tradicionales, requieren esfuerzos multidisciplinarios.
- Los sistemas de IA suelen ser complejos y poco transparentes, tienen una gran cantidad de piezas móviles, dependen de grandes volúmenes de datos, utilizan muchos recursos, se pueden usar para tomas decisiones basadas en criterios y pueden generar contenido nuevo que puede ser ofensivo, dañino o perpetuar estereotipos y sesgos sociales.
- Establece un equipo multifuncional para asegurarte de que se tenga en cuenta la seguridad, la privacidad, los riesgos y el cumplimiento desde el principio.
-
Paso 3: Establecer niveles con un manual de IA
- A medida que los equipos comienzan a evaluar el uso comercial, las diferentes complejidades que se desarrollan, los riesgos y los controles de seguridad pertinentes, resulta fundamental que las partes involucradas comprendan los conceptos básicos del ciclo de vida del desarrollo de modelos de IA y el diseño y la lógica de las metodologías del modelo, incluidas las funciones, los méritos y las limitaciones.
-
Paso 4: Aplicar los seis elementos fundamentales del SAIF (enumerados más arriba)
- No es necesario aplicarlos en orden cronológico.
¿Dónde puedo encontrar más información sobre el SAIF y sobre cómo aplicarlo a mi empresa o entidad?
¡No te pierdas las novedades! Google seguirá creando y compartiendo recursos, instructivos y herramientas relacionadas con el Framework de IA segura (SAIF) junto con otras prácticas recomendadas para el desarrollo de aplicaciones con IA.
Siendo una de las primeras empresas en articular los principios de IA, establecimos un estándar de IA responsable que sirve como guía en el desarrollo de productos para la seguridad. Promovemos y desarrollamos frameworks de la industria para elevar el nivel de seguridad y descubrimos que crear una comunidad para avanzar en el trabajo es fundamental para tener éxito a largo plazo. Por ese motivo, nos entusiasma crear una comunidad de SAIF para todo el mundo.