Secure AI Framework від Google (SAIF)
Штучний інтелект (ШІ), особливо генеративний, має величезний потенціал. Інновації не стоять на місці, тому в цій галузі важливо сформувати стандарти безпеки, які допоможуть відповідально розробляти й розгортати ШІ. Саме тому ми впровадили Secure AI Framework (SAIF) – концептуальну основу для захисту систем, які працюють на базі ШІ.
Ми розробили SAIF, щоб допомагати спеціалістам із безпеки вирішувати найнагальніші проблеми, зокрема пов’язані з керуванням ризиками моделей ШІ й машинного навчання, захистом і конфіденційністю. Так фахівці зможуть бути впевнені, що впроваджені моделі ШІ є безпечними за умовчанням.
Ми раді розповісти про перші кроки на шляху до розробки екосистеми SAIF для державних органів, компаній і організацій, яка просуватиме принципи безпечного розгортання ШІ, що працюють для всіх.
Впровадження SAIF для державних органів і організацій
Ми співпрацюємо з державними органами й організаціями, щоб допомагати зменшувати ризики, пов’язані з безпекою ШІ. Спільно із законодавцями й організаціями зі стандартизації, такими як NIST, ми сприяємо розвитку механізмів регулювання. Нещодавно ми описали роль SAIF у розвитку безпечних систем ШІ відповідно до зобов’язань із використання ШІ, визначених у Білому домі.
Розробка SAIF спільно з галузевими партнерами
У розробці SAIF нам допомагають наші партнери й клієнти в галузі. Ми проводимо спеціальні семінари зі спеціалістами й публікуємо посібники, присвячені безпеці ШІ. Спільно з компанією Deloitte ми розробили інформаційну документацію, що пояснює, як організації можуть використовувати ШІ для вирішення проблем із безпекою.
-
Android: рекомендації щодо безпечної розробки
Захистіть свою організацію за допомогою сповіщень Android про вразливість системи в реальному часі й дотримуйтеся рекомендацій щодо безпечної розробки коду машинного навчання.
Які пов’язані SAIF і принципи відповідального використання ШІ?
Google прагне розробляти ШІ відповідально й допомагати іншим робити це. У принципах щодо ШІ, опублікованих у 2018 році, ми описали наші зобов’язання щодо відповідальної розробки технологій на засадах безпеки й підзвітності та з дотриманням високих наукових стандартів. Відповідальне використання ШІ – це наш загальний підхід, який включає кілька ключових аспектів розробки всіх продуктів ШІ від Google. Це, зокрема, неупередженість, зрозумілість, безпека й конфіденційність.
SAIF – це наша основа для створення стандартизованого й цілісного підходу до впровадження заходів безпеки й конфіденційності в додатках на основі машинного навчання. SAIF відповідає за такі аспекти відповідальної розробки ШІ, як безпека й конфіденційність. Крім того, SAIF забезпечує відповідальну розробку додатків на основі машинного навчання, враховуючи ситуацію із загрозами й очікування клієнтів.
Як Google реалізує принципи SAIF?
Уже багато років компанія Google популяризує відповідальну розробку ШІ й засобів кібербезпеки, а також поєднує найефективніші механізми захисту з інноваціями в галузі ШІ. Наші принципи Secure AI Framework засновані на досвіді й передових методах, які ми розробили й впровадили. Вони відображають підхід Google до розробки додатків на основі машинного навчання й генеративного ШІ з гнучкими, сталими й масштабованими засобами захисту для безпеки й конфіденційності. Ми й далі розвиватимемо та розроблятимемо SAIF з урахуванням нових ризиків, змін у галузі й досягнень у сфері ШІ.
Як спеціалісти можуть упровадити ці принципи?
Перегляньте наш короткий посібник з упровадження принципів SAIF.
-
Крок 1. Проаналізуйте використання
- Зрозумівши, які бізнес-проблеми допоможе вирішити ШІ і які дані потрібно зібрати для тренування моделей, ви зможете розробити й упровадити правила, протоколи та елементи керування в межах SAIF.
-
Крок 2. Сформуйте команду
- Розробка й розгортання систем на базі ШІ, як і традиційних систем, потребує багатопрофільного підходу.
- Системи на базі ШІ часто є складними й малозрозумілими, включають багато змінних елементів, використовують великі обсяги даних і потребують ресурсів. Крім того, за їх допомогою можуть прийматися упереджені рішення, створюватись образливий чи шкідливий контент і закріплюватися стереотипи й упередження в соціумі.
- Зберіть надійну міжфункціональну команду, щоб від самого початку враховувати питання безпеки, конфіденційності, ризиків і дотримання стандартів.
-
Крок 3. Опануйте основи ШІ
- Оцінюючи використання для бізнесу, різноманітні труднощі, ризики й необхідні механізми безпеки, важливо, щоб команди розуміли основи життєвого циклу розробки моделей ШІ, структуру й логіку методологій моделей, зокрема їх можливості, переваги й обмеження.
-
Крок 4. Застосуйте шість основних елементів SAIF, наведених вище
- Ці елементи не обов’язково впроваджувати в хронологічному порядку.
Де знайти більше інформації про принципи SAIF і те, як застосувати їх для моєї компанії чи організації?
Стежте за новинами. Google створюватиме й поширюватиме ресурси, посібники та інструменти Secure AI Framework, а також інші оптимальні методи розробки додатків на основі ШІ.
Google є однією з перших компаній, яка сформувала принципи штучного інтелекту, установивши стандарт для відповідального використання технологій на його основі. Саме цими принципами ми керуємося, щоб розробляти безпечні продукти. Ми виступали за створення галузевих механізмів, які могли б підвищити планку безпеки, брали участь у їх розробці й зрозуміли, що для успіху в довготривалій перспективі необхідно сформувати відповідну спільноту. Саме тому ми хочемо розробити екосистему SAIF для всіх.