Secure AI Framework от Google
(SAIF)

Искусственный интеллект, в особенности его генеративная разновидность, обладает невероятным потенциалом. С развитием инноваций возникает потребность в новых стандартах безопасности для ответственной разработки и развертывания решений на базе ИИ. Поэтому мы разработали Secure AI Framework (SAIF) – принципы создания безопасных ИИ-систем.

Шесть основных элементов SAIF

SAIF решает ключевые проблемы, стоящие перед специалистами по безопасности, например связанные с ее обеспечением, защитой конфиденциальности и управлением рисками в рамках моделей искусственного интеллекта или машинного обучения. Эти принципы позволяют гарантировать, что внедренные модели ИИ будут безопасными по умолчанию.

Применение надежной защиты в экосистеме ИИ-решений
Включение угроз, связанных с ИИ, в систему обнаружения и обработки инцидентов безопасности
Автоматизация защитных мер для противодействия существующим и новым угрозам
Согласование элементов управления на уровне платформы для создания единой системы безопасности в организации
Адаптирование защитных систем и ускорение циклов обратной связи для развертывания ИИ-решений
Оценка рисков, связанных с ИИ-системами, в контексте имеющихся бизнес-процессов
Скачать PDF
Повышение безопасности
экосистемы

Мы готовы рассказать о своих первых наработках по созданию экосистемы SAIF с компаниями, организациями и государственными учреждениями, направленной на продвижение принципов, которые позволяют всем безопасно разворачивать решения на базе искусственного интеллекта.

Привлечение внимания организаций и государственных учреждений к SAIF

Мы сотрудничаем с организациями и государственными учреждениями, чтобы снижать риски, связанные с искусственным интеллектом. Взаимодействуя с властями и организациями по стандартизации, такими как Национальный институт стандартов и технологий США (NIST), мы помогаем развивать нормативно-правовую базу. Недавно, согласно взятым на себя обязательствам в сфере ИИ, которые предложило правительство США, мы рассказали о роли SAIF в защите ИИ-систем.

Расширение поддержки SAIF вместе с отраслевыми партнерами

Мы расширяем отраслевую поддержку SAIF вместе с партнерами и клиентами, проводим семинары по этим принципам с практикующими специалистами и публикуем рекомендации по безопасности, касающиеся искусственного интеллекта. Вместе с Deloitte мы представили техническую публикацию, в которой рассказывается, как организации могут использовать ИИ для решения проблем безопасности.

Дополнительные ресурсы
Распространенные вопросы о SAIF

Как связаны принципы SAIF и ответственный подход к искусственному интеллекту?

Мы поставили перед собой цель развивать искусственный интеллект ответственно и помогать другим действовать так же. В 2018 году мы опубликовали принципы в отношении искусственного интеллекта. В них рассказано о наших обязательствах по ответственной разработке технологий, которая позволяет обеспечивать безопасность, отчетность и соблюдение высоких стандартов научного знания. Ответственный подход к искусственному интеллекту основывается на таких принципах, как честность, интерпретируемость, безопасность и конфиденциальность. Они определяют то, как разрабатываются все продукты Google с ИИ.

SAIF позволяет создать стандартизированную целостную стратегию по интеграции мер безопасности и защиты конфиденциальности в приложения, использующие машинное обучение. SAIF соответствует принципам безопасности и конфиденциальности в рамках ответственного подхода к разработке ИИ. Благодаря SAIF можно гарантировать, что приложения с использованием машинного обучения будут разрабатываться ответственно с учетом меняющегося ландшафта угроз и пользовательских ожиданий.

Как Google воплощает SAIF в жизнь?

Google придерживается ответственного подхода к разработкам в сфере кибербезопасности и искусственного интеллекта. Мы давно адаптируем рекомендации по обеспечению безопасности к инновационным решениям на базе ИИ. Принципы Secure AI Framework – это совокупность нашего опыта. Они отражают подход Google к созданию приложений на основе машинного обучения и генеративного ИИ, предусматривающий адаптивные, надежные и масштабируемые инструменты обеспечения безопасности и конфиденциальности. Мы продолжим развивать SAIF с учетом новых рисков, изменений ландшафта и улучшений в технологиях искусственного интеллекта.

Как практикующие специалисты могут реализовать эти принципы?

Применение принципов SAIF рассматривается в кратком руководстве.

  • Шаг 1. Продумайте концепцию использования
    • Сформулируйте бизнес-задачу, которую будет решать ИИ, и составьте перечень данных, необходимых для обучения модели. Это поможет определить правила, протоколы и инструменты контроля, которые потребуется внедрить в рамках SAIF.
  • Шаг 2. Подберите команду
    • Как и в случае традиционных продуктов, разработка и внедрение ИИ-систем предусматривает взаимодействие специалистов из разных отраслей.
    • Часто такие системы отличаются высокой сложностью и непрозрачностью, содержат большое число взаимодействующих компонентов и для работы нуждаются в больших объемах данных и ресурсов. Они могут использоваться для реализации решений, основанных на оценочных суждениях, генерировать новый оскорбительный или опасный контент, а также способствовать закреплению стереотипов и социальных предрассудков.
    • Соберите команду специалистов из разных областей, чтобы с самого начала проекта учитывать факторы, связанные с безопасностью, конфиденциальностью, рисками и соблюдением требований.
  • Шаг 3. Обеспечьте общее понимание проблем, связанных с ИИ
    • Приступая к оценке коммерческого применения решений с искусственным интеллектом, сопутствующих сложностей, рисков и мер безопасности, необходимо убедиться, что все участники имеют представление об основах разработки модели ИИ, а также о структуре, внутренних механизмах, возможностях, преимуществах и ограничениях этой модели.
  • Шаг 4. Реализуйте шесть основных элементов SAIF (см. выше)
    • Это необязательно делать в хронологическом порядке.

Где найти подробную информацию о принципах SAIF и как применять их в своей деятельности?

Следите за новостями. Мы продолжим создавать и распространять ресурсы, инструкции и инструменты Secure AI Framework, а также предоставлять рекомендации по разработке приложений с использованием ИИ.

Почему мы поддерживаем сообщество безопасного искусственного интеллекта для всех

Мы стали одной из первых компаний, сформулировавших принципы развития искусственного интеллекта, и определили стандарт ответственного подхода к ИИ, помогающий обеспечивать безопасность наших продуктов. Когда мы разрабатывали отраслевые стандарты для повышения уровня безопасности и выступали за их принятие, стало понятно, что для успеха в долгосрочной перспективе нужны совместные усилия единомышленников. Поэтому мы создали сообщество SAIF, открытое для всех.

Инновации

Узнайте, как мы разрабатываем и распространяем технологии безопасности, которые повышают отраслевые стандарты.