Marco para la IA Segura de Google
(SAIF)
El potencial de la IA, especialmente de la IA generativa, es inmenso. A medida que avanza la innovación, el sector necesita estándares de seguridad para desarrollar e introducir la IA de forma responsable. Por eso, presentamos el Marco para la IA Segura (SAIF), un marco conceptual para que los sistemas de IA sean seguros.
Seis elementos clave del SAIF
-
Ampliar cimientos de seguridad sólidos al ecosistema de la IA
-
Ampliar la detección y la respuesta para introducir la IA en el universo de amenazas de las empresas
-
Automatizar las defensas para hacer frente a las amenazas actuales y futuras
-
Unificar los controles a nivel de plataforma para lograr una seguridad coherente en toda la empresa
-
Adaptar los controles para ajustar las medidas de mitigación y crear ciclos de retroalimentación más rápidos para la implementación de la IA
-
Contextualizar los riesgos de los sistemas de IA en los procesos empresariales del entorno
Favorecemos un ecosistema más seguro
Otros recursos
Preguntas frecuentes
sobre el Marco para la IA Segura
Google tiene un largo historial en el impulso del desarrollo responsable de la IA y la ciberseguridad, y llevamos muchos años adaptando las prácticas recomendadas de seguridad a las innovaciones en IA. Nuestro Marco para la IA Segura se basa en la experiencia y en las prácticas recomendadas que hemos desarrollado e implementado, y refleja el enfoque de Google para crear aplicaciones basadas en IA generativa y aprendizaje automático, con medidas de protección escalables, sostenibles y con capacidad de respuesta para la seguridad y la privacidad. Seguiremos desarrollando y perfeccionando el SAIF para hacer frente a nuevos riesgos, cambios en el entorno y avances en IA.
Consulta nuestra guía rápida para implementar el marco SAIF:
- Paso 1: Comprender el uso
- Comprender el problema empresarial específico que resolverá la IA y los datos necesarios para entrenar el modelo ayudará a desarrollar la política, los protocolos y los controles que deben aplicarse como parte del SAIF.
- Paso 2: Crear el equipo
- El desarrollo y la implementación de sistemas de IA, al igual que sucede con los sistemas tradicionales, son procesos que implican varias disciplinas.
- Los sistemas de IA suelen ser complejos y opacos, tienen un gran número de piezas móviles, dependen de grandes cantidades de datos, consumen muchos recursos, pueden utilizarse para aplicar decisiones basadas en opiniones y pueden generar contenidos novedosos que pueden ser ofensivos, perjudiciales o perpetuar estereotipos y prejuicios sociales.
- Se debe establecer el equipo multifuncional adecuado para asegurar que las consideraciones de seguridad, privacidad, riesgo y cumplimiento se incluyan desde el principio.
-
Paso 3: Poner a todos de acuerdo con una presentación básica de la IA
- A medida que los equipos se embarcan en la evaluación del uso empresarial, las diversas y cambiantes complejidades, los riesgos y los controles de seguridad aplicables, es fundamental que las partes implicadas comprendan los aspectos básicos del ciclo de vida de desarrollo de modelos de IA , el diseño y la lógica de las metodologías de los modelos, incluidas las capacidades, los méritos y las limitaciones.
-
Paso 4: Aplicar los seis elementos clave del SAIF
- No es necesario que estos elementos se apliquen en orden cronológico.
No te lo pierdas. Google seguirá creando y compartiendo recursos, directrices y herramientas del Marco para la IA Segura, junto con otras prácticas recomendadas para el desarrollo de aplicaciones de IA.