Перейти до контенту

Блакитний щит із білим значком у вигляді літери G.

Secure AI Framework від Google (SAIF)

Штучний інтелект (ШІ), особливо генеративний, має величезний потенціал. Інновації не стоять на місці, тому в цій галузі важливо сформувати стандарти безпеки, які допоможуть відповідально розробляти й розгортати ШІ. Саме тому ми впровадили Secure AI Framework (SAIF) – концептуальну основу для захисту систем, які працюють на базі ШІ.

Шість основних елементів SAIF

Ми розробили SAIF, щоб допомагати спеціалістам із безпеки вирішувати найнагальніші проблеми, зокрема пов’язані з керуванням ризиками моделей ШІ й машинного навчання, захистом і конфіденційністю. Так фахівці зможуть бути впевнені, що впроваджені моделі ШІ є захищеними за умовчанням.
  • Застосування перевірених механізмів захисту до екосистеми ШІ

  • Розширене виявлення й усунення загроз, пов’язаних із ШІ, на рівні всієї організації

  • Автоматизація систем захисту для вчасної протидії наявним і новим загрозам

  • Узгоджений контроль на різних платформах для уніфікованого захисту в межах організації

  • Адаптація елементів керування: ефективніше усунення ризиків і швидші цикли зі зворотним зв’язком для розгортання ШІ

  • Контекстуалізація ризиків ШІ-систем у наявних бізнес-процесах

Створення безпечної екосистеми

Ми раді розповісти про перші кроки на шляху до розробки екосистеми SAIF для державних органів, компаній і організацій, яка просуватиме принципи безпечного розгортання ШІ, що працюють для всіх.
Графічне зображення рожевої сітки, яка надсилає запити на екран.

Представляємо портал SAIF.Google: безпечний ШІ починається тут

SAIF.Google – це ресурсний центр, який допомагає спеціалістам із безпеки краще орієнтуватися в складному середовищі ШІ, що швидко розвивається. Тут наведено інформацію про ризики, пов’язані із ШІ, і способи їх усунення, наприклад звіт про самодіагностику ризиків, завдяки якому спеціалісти можуть виявити вразливості й упровадити принципи SAIF у своїх організаціях. Ці ресурси є критично важливими для створення й розгортання безпечних систем ШІ в мінливому світі.
Графічне зображення сузір’я, посередині якого розташовано блакитний щит із білою літерою G, а навколо – значки будівлі, замка, профілю, глобуса й документа.

Упровадження SAIF для державних органів і організацій

Ми співпрацюємо з державними органами й організаціями, щоб допомагати зменшувати ризики, пов’язані з безпекою ШІ. Спільно із законодавцями й організаціями зі стандартизації, такими як NIST, ми сприяємо розвитку нормативної бази. Нещодавно ми описали роль SAIF у розвитку безпечних систем ШІ відповідно дозобов’язань із використання ШІ, визначених у Білому домі.
Коло, усередині якого розміщені логотипи технологічних компаній.

Коаліція прихильників безпечного ШІ: розвиток принципів SAIF разом із галузевими партнерами

Ми продовжуємо цю роботу й заручаємося підтримкою інших учасників галузі. Щоб боротися з критичними викликами, які виникають у процесі впровадження безпечних систем ШІ, ми сформували Коаліцію прихильників безпечного ШІ (CoSAI). Її співзасновниками стали такі компанії, як Anthropic, Cisco, GenLab, IBM, Intel, Nvidia й PayPal.

Додаткові ресурси

Поширені запитання
про SAIF

Як Google реалізує принципи SAIF?

Уже багато років компанія Google популяризує відповідальну розробку ШІ й засобів кібербезпеки, а також поєднує найефективніші механізми захисту з інноваціями в галузі ШІ. Наші принципи Secure AI Framework засновані на досвіді й передових методах, які ми розробили та впровадили. Вони відображають підхід Google до розробки додатків на основі машинного навчання й генеративного ШІ з гнучкими, сталими та масштабованими засобами захисту для безпеки й конфіденційності. Ми й далі розвиватимемо та розроблятимемо SAIF з урахуванням нових ризиків, змін у галузі й досягнень у сфері ШІ.

Як спеціалісти можуть упровадити ці принципи?

Перегляньте наш короткий посібник з упровадження принципів SAIF.

  • Крок 1 - Проаналізуйте використання
    • Зрозумівши, які бізнес-проблеми допоможе вирішити ШІ і які дані потрібно зібрати для тренування моделей, ви зможете розробити й упровадити правила, протоколи та елементи керування в межах SAIF.
  • Крок 2 - Сформуйте команду
    • Розробка й розгортання систем на базі ШІ, як і традиційних систем, потребує багатопрофільного підходу.
    • Системи на базі ШІ часто є складними й малозрозумілими, включають багато змінних елементів, використовують великі обсяги даних і потребують ресурсів. Крім того, за їх допомогою можуть прийматися упереджені рішення, створюватись образливий чи шкідливий контент і закріплюватися стереотипи й упередження в соціумі.
    • Зберіть надійну багатофункціональну команду, щоб від самого початку враховувати питання безпеки, конфіденційності, ризиків і дотримання стандартів.
  • Крок 3 - Опануйте основи ШІ

    • Оцінюючи використання для бізнесу, різноманітні труднощі, ризики й необхідні механізми безпеки, важливо, щоб команди розуміли основи життєвого циклу розробки моделей ШІ , структуру й логіку методологій моделей, зокрема їх можливості, переваги й обмеження.
  • Крок 4 - Застосуйте шість основних елементів SAIF

    • Ці елементи не обов’язково впроваджувати в хронологічному порядку.

Де знайти більше інформації про принципи SAIF і те, як застосувати їх для моєї компанії чи організації?

Стежте за новинами. Google створюватиме й поширюватиме ресурси, посібники та інструменти Secure AI Framework, а також інші оптимальні методи розробки додатків на основі ШІ.

Чому ми підтримуємо загальнодоступну спільноту прихильників безпечного ШІ

Google є однією з перших компаній, яка сформувала принципи щодо штучного інтелекту, установивши стандарт для відповідального використання технологій на його основі. Саме цими принципами ми керуємося, щоб розробляти безпечні продукти. Ми виступали за створення галузевих механізмів, які могли б підвищити планку безпеки, брали участь у їх розробці й зрозуміли, що для успіху в довготривалій перспективі необхідно сформувати відповідну спільноту. Саме тому ми хочемо розробити екосистему SAIF для всіх.