Secure AI Framework от Google(SAIF)
Искусственный интеллект, в особенности его генеративная разновидность, обладает невероятным потенциалом. С развитием инноваций возникает потребность в новых стандартах безопасности для ответственной разработки и развертывания решений на базе ИИ. Поэтому мы разработали Secure AI Framework (SAIF) – принципы создания безопасных ИИ-систем.
SAIF решает ключевые проблемы, стоящие перед специалистами по безопасности, например связанные с ее обеспечением, защитой конфиденциальности и управлением рисками в рамках моделей искусственного интеллекта или машинного обучения. Эти принципы позволяют гарантировать, что внедренные модели ИИ будут безопасными по умолчанию.
Мы готовы рассказать о своих первых наработках по созданию экосистемы SAIF с компаниями, организациями и государственными учреждениями, направленной на продвижение принципов, которые позволяют всем безопасно разворачивать решения на базе искусственного интеллекта.
Привлечение внимания организаций и государственных учреждений к SAIF
Мы сотрудничаем с организациями и государственными учреждениями, чтобы снижать риски, связанные с искусственным интеллектом. Взаимодействуя с властями и организациями по стандартизации, такими как Национальный институт стандартов и технологий США (NIST), мы помогаем развивать нормативно-правовую базу. Недавно, согласно взятым на себя обязательствам в сфере ИИ, которые предложило правительство США, мы рассказали о роли SAIF в защите ИИ-систем.
Расширение поддержки SAIF вместе с отраслевыми партнерами
Мы расширяем отраслевую поддержку SAIF вместе с партнерами и клиентами, проводим семинары по этим принципам с практикующими специалистами и публикуем рекомендации по безопасности, касающиеся искусственного интеллекта. Вместе с Deloitte мы представили техническую публикацию, в которой рассказывается, как организации могут использовать ИИ для решения проблем безопасности.
-
Android: рекомендации по безопасной разработке
Защищайте организацию с помощью оповещений об уязвимостях Android в реальном времени и следуйте рекомендациям по безопасной разработке при создании решений с машинным обучением.
Как связаны принципы SAIF и ответственный подход к искусственному интеллекту?
Мы поставили перед собой цель развивать искусственный интеллект ответственно и помогать другим действовать так же. В 2018 году мы опубликовали принципы в отношении искусственного интеллекта. В них рассказано о наших обязательствах по ответственной разработке технологий, которая позволяет обеспечивать безопасность, отчетность и соблюдение высоких стандартов научного знания. Ответственный подход к искусственному интеллекту основывается на таких принципах, как честность, интерпретируемость, безопасность и конфиденциальность. Они определяют то, как разрабатываются все продукты Google с ИИ.
SAIF позволяет создать стандартизированную целостную стратегию по интеграции мер безопасности и защиты конфиденциальности в приложения, использующие машинное обучение. SAIF соответствует принципам безопасности и конфиденциальности в рамках ответственного подхода к разработке ИИ. Благодаря SAIF можно гарантировать, что приложения с использованием машинного обучения будут разрабатываться ответственно с учетом меняющегося ландшафта угроз и пользовательских ожиданий.
Как Google воплощает SAIF в жизнь?
Google придерживается ответственного подхода к разработкам в сфере кибербезопасности и искусственного интеллекта. Мы давно адаптируем рекомендации по обеспечению безопасности к инновационным решениям на базе ИИ. Принципы Secure AI Framework – это совокупность нашего опыта. Они отражают подход Google к созданию приложений на основе машинного обучения и генеративного ИИ, предусматривающий адаптивные, надежные и масштабируемые инструменты обеспечения безопасности и конфиденциальности. Мы продолжим развивать SAIF с учетом новых рисков, изменений ландшафта и улучшений в технологиях искусственного интеллекта.
Как практикующие специалисты могут реализовать эти принципы?
Применение принципов SAIF рассматривается в кратком руководстве.
-
Шаг 1. Продумайте концепцию использования
- Сформулируйте бизнес-задачу, которую будет решать ИИ, и составьте перечень данных, необходимых для обучения модели. Это поможет определить правила, протоколы и инструменты контроля, которые потребуется внедрить в рамках SAIF.
-
Шаг 2. Подберите команду
- Как и в случае традиционных продуктов, разработка и внедрение ИИ-систем предусматривает взаимодействие специалистов из разных отраслей.
- Часто такие системы отличаются высокой сложностью и непрозрачностью, содержат большое число взаимодействующих компонентов и для работы нуждаются в больших объемах данных и ресурсов. Они могут использоваться для реализации решений, основанных на оценочных суждениях, генерировать новый оскорбительный или опасный контент, а также способствовать закреплению стереотипов и социальных предрассудков.
- Соберите команду специалистов из разных областей, чтобы с самого начала проекта учитывать факторы, связанные с безопасностью, конфиденциальностью, рисками и соблюдением требований.
-
Шаг 3. Обеспечьте общее понимание проблем, связанных с ИИ
- Приступая к оценке коммерческого применения решений с искусственным интеллектом, сопутствующих сложностей, рисков и мер безопасности, необходимо убедиться, что все участники имеют представление об основах разработки модели ИИ, а также о структуре, внутренних механизмах, возможностях, преимуществах и ограничениях этой модели.
-
Шаг 4. Реализуйте шесть основных элементов SAIF (см. выше)
- Это необязательно делать в хронологическом порядке.
Где найти подробную информацию о принципах SAIF и как применять их в своей деятельности?
Следите за новостями. Мы продолжим создавать и распространять ресурсы, инструкции и инструменты Secure AI Framework, а также предоставлять рекомендации по разработке приложений с использованием ИИ.
Мы стали одной из первых компаний, сформулировавших принципы развития искусственного интеллекта, и определили стандарт ответственного подхода к ИИ, помогающий обеспечивать безопасность наших продуктов. Когда мы разрабатывали отраслевые стандарты для повышения уровня безопасности и выступали за их принятие, стало понятно, что для успеха в долгосрочной перспективе нужны совместные усилия единомышленников. Поэтому мы создали сообщество SAIF, открытое для всех.