Secure AI Framework (SAIF) od Googlu
Potenciál umělé inteligence, a zejména generativní umělé inteligence, je nezměrný. Vzhledem k nepřetržitému proudu inovací potřebuje i tento obor bezpečnostní standardy pro zodpovědné vytváření a implementaci AI. Proto jsme představili Secure AI Framework (SAIF), koncepční rámec pro bezpečné systémy AI.
Rámec SAIF má za úkol řešit zásadní obavy bezpečnostních odborníků, například řízení rizik v modelech umělé inteligence či strojového učení nebo zabezpečení a ochranu soukromí, a pomáhá zajistit, aby modely umělé inteligence byly bezpečné již v okamžiku implementace.
S nadšením sdílíme tyto první kroky na cestě za vytvořením ekosystému SAIF v orgánech státní správy, firmách a organizacích, abychom prosadili rámec bezpečné implementace AI, který bude fungovat u všech.
Přinášíme SAIF státní správě i organizacím
Společně s orgány státní správy a nejrůznějšími organizacemi se snažíme zmírňovat bezpečnostní rizika AI. Naše spolupráce se zákonodárci a organizacemi pro normalizaci, jako je NIST, přispívá k rozvoji regulatorních rámců. Nedávno jsme například také poukázali na roli rámce SAIF při zabezpečení systémů AI v souladu s požadavky Bílého domu.
Šíření rámce SAIF u spojenců v oboru
Pomáháme rozvoji oborové podpory rámce SAIF u partnerů a zákazníků prostřednictvím workshopů s praktiky a zveřejňování doporučených postupů ohledně zabezpečení AI. Ve spolupráci se společností Deloitte jsme vytvořili informační brožuru o tom, jak mohou organizace využít umělou inteligenci k řešení bezpečnostních problémů.
-
Android: pokyny pro bezpečný vývoj
Zabezpečte svou organizaci pomocí upozornění na bezpečnostní hrozby od Androidu v reálném čase a řiďte se pokyny pro bezpečný vývoj kódu strojového učení.
Jakou má souvislost rámec SAIF se zodpovědným používám AI?
Google se řídí pravidlem o zodpovědném budování AI a ostatním chce umožnit, aby mohli dělat to samé. Naše principy AI zveřejněné v roce 2018 popisují náš závazek ohledně zodpovědného vývoje technologií způsobem, který bere v úvahu bezpečnost, podporuje odpovědnost a dostává vysokým standardům prvotřídní vědecké práce. Zodpovědné používání AI je naším zaštiťujícím přístupem, který má několik aspektů jako Poctivost, Vysvětlitelnost, Bezpečnost a Ochrana soukromí, kterými se řídí veškerý vývoj produktů s umělou inteligencí od Googlu.
SAIF je naším rámcem pro vytváření standardizovaného a holistického přístupu k integraci zabezpečení a opatření na ochranu soukromí do aplikací využívajících strojové učení. Ve vztahu k zodpovědnému budování AI je v souladu s aspekty Bezpečnost a Ochrana soukromí. SAIF zajišťuje, aby se aplikace využívající strojové učení vyvíjely zodpovědně, s přihlédnutím k nejnovějším se hrozbám a očekáváním uživatelů.
Jak společnost Google rámec SAIF realizuje?
Společnost Google již dlouhou dobu podporuje zodpovědný vývoj AI a kyberbezpečnost a mnoho let vytváří doporučené postupy ohledně zabezpečení inovací v oblasti AI. Náš rámec Secure AI Framework vychází ze spousty zkušeností a doporučených postupů, které jsme vyvinuli a implementovali, a odráží přístup společnosti Google k vytváření aplikací využívajících strojové učení a generativní umělou inteligenci s responzivní, udržitelnou a škálovatelnou ochranou zabezpečení a soukromí. Chceme rámec SAIF dál vyvíjet a přizpůsobovat tak, aby se dokázal vypořádat s novými riziky, měnícím se prostředím a pokroky v oblasti AI.
Jak můžou praktici rámec implementovat?
Přečtěte si rychlého průvodce implementací rámce SAIF:
-
Krok 1 – Způsob použití
- Pochopení konkrétních podnikových problémů, které AI vyřeší, a povědomí o datech potřebných k trénování modelu pomůže s vytvořením zásad, protokolů a ovládacích prvků, které je třeba v rámci SAIF implementovat.
-
Krok 2 – Sestavení týmu
- Stejně jako u tradičních systémů je i vývoj a implementace systémů AI multidisciplinární záležitost.
- Systémy AI bývají složité a neprůhledné – mají spoustu proměnných, závisejí na velkém množství dat, jsou náročné na zdroje a můžou generovat obsah, který je nevhodný, škodlivý nebo podporuje nevhodné stereotypy a společenské předsudky.
- Vybudujte vhodný multifunkční tým, který bude už od počátku dbát na zabezpečení, ochranu soukromí, rizika i dodržování zásad.
-
Krok 3 – Stanovení úrovně pomocí úvodu do AI
- Než se týmy pustí do vyhodnocování firemního použití, rizik a ovládacích prvků zabezpečení, je nutné, aby zapojené strany chápaly základy životního cyklu vývoje modelu AI a logiku metodologie modelu, včetně jeho možností, předností a omezení.
-
Krok 4 – Použití šesti základních prvků SAIF (uvedených výše)
- Prvky se nemusí využívat v chronologickém pořadí.
Kde najdu další informace o rámci SAIF a o tom, jak ho použít v naší firmě nebo subjektu?
Sledujte aktuální informace. Google bude dál vytvářet a sdílet zdroje, rady a nástroje související s rámcem Secure AI Framework a další doporučené postupy ohledně vývoje aplikací AI.
Coby jedna z prvních společností, které formulovaly principy Al, jsme stanovili normu pro zodpovědné používání Al. Touto normou se řídíme při vývoji produktů v oblasti zabezpečení. Abychom pozvedli laťku zabezpečení, zasazovali jsme se o vytvoření oborových rámců, na kterých jsme se pak také podíleli. K dosažení dlouhodobého úspěchu je však nezbytné budovat komunitu, která bude na problematice nadále pracovat. Proto jsme tak rádi vytvořili komunitu SAIF pro všechny.