Secure AI Framework от Google
(SAIF)

Искусственный интеллект, в особенности его генеративная разновидность, обладает невероятным потенциалом. С развитием инноваций возникает потребность в новых стандартах безопасности для ответственной разработки и развертывания решений на базе ИИ. Поэтому мы разработали Secure AI Framework (SAIF) – принципы создания безопасных ИИ-систем.

Шесть основных элементов SAIF

SAIF решает ключевые проблемы, стоящие перед специалистами по безопасности, например связанные с ее обеспечением, защитой конфиденциальности и управлением рисками в рамках моделей искусственного интеллекта или машинного обучения. Эти принципы позволяют гарантировать, что внедренные модели ИИ будут безопасными по умолчанию.

Применение надежной защиты в экосистеме ИИ-решений
Включение угроз, связанных с ИИ, в систему обнаружения и обработки инцидентов безопасности
Автоматизация защитных мер для противодействия существующим и новым угрозам
Согласование элементов управления на уровне платформы для создания единой системы безопасности в организации
Адаптирование защитных систем и ускорение циклов обратной связи для развертывания ИИ-решений
Оценка рисков, связанных с ИИ-системами, в контексте имеющихся бизнес-процессов
Скачать PDF
Повышение безопасности
экосистемы

Мы готовы рассказать о своих первых наработках по созданию экосистемы SAIF с компаниями, организациями и государственными учреждениями, направленной на продвижение принципов, которые позволяют всем безопасно разворачивать решения на базе искусственного интеллекта.

Привлечение внимания организаций и государственных учреждений к SAIF

Мы сотрудничаем с организациями и государственными учреждениями, чтобы снижать риски, связанные с искусственным интеллектом. Взаимодействуя с властями и организациями по стандартизации, такими как Национальный институт стандартов и технологий США (NIST), мы помогаем развивать нормативно-правовую базу. Недавно, согласно взятым на себя обязательствам в сфере ИИ, которые предложило правительство США, мы рассказали о роли SAIF в защите ИИ-систем.

Расширение поддержки SAIF вместе с отраслевыми партнерами

Мы расширяем отраслевую поддержку SAIF вместе с партнерами и клиентами, проводим семинары по этим принципам с практикующими специалистами и публикуем рекомендации по безопасности, касающиеся искусственного интеллекта. Вместе с Deloitte мы представили техническую публикацию, в которой рассказывается, как организации могут использовать ИИ для решения проблем безопасности.

Дополнительные ресурсы
Распространенные вопросы о SAIF
Почему мы поддерживаем сообщество безопасного искусственного интеллекта для всех

Мы стали одной из первых компаний, сформулировавших принципы развития искусственного интеллекта, и определили стандарт ответственного подхода к ИИ, помогающий обеспечивать безопасность наших продуктов. Когда мы разрабатывали отраслевые стандарты для повышения уровня безопасности и выступали за их принятие, стало понятно, что для успеха в долгосрочной перспективе нужны совместные усилия единомышленников. Поэтому мы создали сообщество SAIF, открытое для всех.

Инновации

Узнайте, как мы разрабатываем и распространяем технологии безопасности, которые повышают отраслевые стандарты.