Secure AI Framework
(SAIF) od Googlu

Potenciál umělé inteligence, a zejména generativní umělé inteligence, je nezměrný. Vzhledem k nepřetržitému proudu inovací potřebuje i tento obor bezpečnostní standardy pro zodpovědné vytváření a implementaci AI. Proto jsme představili Secure AI Framework (SAIF), koncepční rámec pro bezpečné systémy AI.

Šest hlavních prvků rámce SAIF

Rámec SAIF má za úkol řešit zásadní obavy bezpečnostních odborníků, například řízení rizik v modelech umělé inteligence či strojového učení nebo zabezpečení a ochranu soukromí, a pomáhá zajistit, aby modely umělé inteligence byly bezpečné již v okamžiku implementace.

Rozšíření silných základů zabezpečení na ekosystém AI
Rozšíření detekce a odezvy za účelem začlenění AI do systému organizace pro řešení hrozeb
Automatická ochrana, která drží krok se stávajícími i novými hrozbami
Harmonizace ovládacích prvků na úrovni platformy za účelem zajištění konzistentního zabezpečení v celé organizaci
Úprava ovládacích prvků k přizpůsobení zmírnění a vytvoření rychlejších smyček zpětné vazby pro implementaci AI
Uvedení rizik systému AI do kontextu s okolními firemními procesy
Stáhnout PDF
Zajištění bezpečnějšího
ekosystému

S nadšením sdílíme tyto první kroky na cestě za vytvořením ekosystému SAIF v orgánech státní správy, firmách a organizacích, abychom prosadili rámec bezpečné implementace AI, který bude fungovat u všech.

Přinášíme SAIF státní správě i organizacím

Společně s orgány státní správy a nejrůznějšími organizacemi se snažíme zmírňovat bezpečnostní rizika AI. Naše spolupráce se zákonodárci a organizacemi pro normalizaci, jako je NIST, přispívá k rozvoji regulatorních rámců. Nedávno jsme například také poukázali na roli rámce SAIF při zabezpečení systémů AI v souladu s požadavky Bílého domu.

Šíření rámce SAIF u spojenců v oboru

Pomáháme rozvoji oborové podpory rámce SAIF u partnerů a zákazníků prostřednictvím workshopů s praktiky a zveřejňování doporučených postupů ohledně zabezpečení AI. Ve spolupráci se společností Deloitte jsme vytvořili informační brožuru o tom, jak mohou organizace využít umělou inteligenci k řešení bezpečnostních problémů.

Další zdroje
Časté dotazy ohledně SAIF

Jakou má souvislost rámec SAIF se zodpovědným používám AI?

Google se řídí pravidlem o zodpovědném budování AI a ostatním chce umožnit, aby mohli dělat to samé. Naše principy AI zveřejněné v roce 2018 popisují náš závazek ohledně zodpovědného vývoje technologií způsobem, který bere v úvahu bezpečnost, podporuje odpovědnost a dostává vysokým standardům prvotřídní vědecké práce. Zodpovědné používání AI je naším zaštiťujícím přístupem, který má několik aspektů jako Poctivost, Vysvětlitelnost, Bezpečnost a Ochrana soukromí, kterými se řídí veškerý vývoj produktů s umělou inteligencí od Googlu.

SAIF je naším rámcem pro vytváření standardizovaného a holistického přístupu k integraci zabezpečení a opatření na ochranu soukromí do aplikací využívajících strojové učení. Ve vztahu k zodpovědnému budování AI je v souladu s aspekty Bezpečnost a Ochrana soukromí. SAIF zajišťuje, aby se aplikace využívající strojové učení vyvíjely zodpovědně, s přihlédnutím k nejnovějším se hrozbám a očekáváním uživatelů.

Jak společnost Google rámec SAIF realizuje?

Společnost Google již dlouhou dobu podporuje zodpovědný vývoj AI a kyberbezpečnost a mnoho let vytváří doporučené postupy ohledně zabezpečení inovací v oblasti AI. Náš rámec Secure AI Framework vychází ze spousty zkušeností a doporučených postupů, které jsme vyvinuli a implementovali, a odráží přístup společnosti Google k vytváření aplikací využívajících strojové učení a generativní umělou inteligenci s responzivní, udržitelnou a škálovatelnou ochranou zabezpečení a soukromí. Chceme rámec SAIF dál vyvíjet a přizpůsobovat tak, aby se dokázal vypořádat s novými riziky, měnícím se prostředím a pokroky v oblasti AI.

Jak můžou praktici rámec implementovat?

Přečtěte si rychlého průvodce implementací rámce SAIF:

  • Krok 1 – Způsob použití
    • Pochopení konkrétních podnikových problémů, které AI vyřeší, a povědomí o datech potřebných k trénování modelu pomůže s vytvořením zásad, protokolů a ovládacích prvků, které je třeba v rámci SAIF implementovat.
  • Krok 2 – Sestavení týmu
    • Stejně jako u tradičních systémů je i vývoj a implementace systémů AI multidisciplinární záležitost.
    • Systémy AI bývají složité a neprůhledné – mají spoustu proměnných, závisejí na velkém množství dat, jsou náročné na zdroje a můžou generovat obsah, který je nevhodný, škodlivý nebo podporuje nevhodné stereotypy a společenské předsudky.
    • Vybudujte vhodný multifunkční tým, který bude už od počátku dbát na zabezpečení, ochranu soukromí, rizika i dodržování zásad.
  • Krok 3 – Stanovení úrovně pomocí úvodu do AI
    • Než se týmy pustí do vyhodnocování firemního použití, rizik a ovládacích prvků zabezpečení, je nutné, aby zapojené strany chápaly základy životního cyklu vývoje modelu AI a logiku metodologie modelu, včetně jeho možností, předností a omezení.
  • Krok 4 – Použití šesti základních prvků SAIF (uvedených výše)
    • Prvky se nemusí využívat v chronologickém pořadí.

Kde najdu další informace o rámci SAIF a o tom, jak ho použít v naší firmě nebo subjektu?

Sledujte aktuální informace. Google bude dál vytvářet a sdílet zdroje, rady a nástroje související s rámcem Secure AI Framework a další doporučené postupy ohledně vývoje aplikací AI.

Proč podporujeme bezpečnou AI komunitu pro všechny

Coby jedna z prvních společností, které formulovaly principy Al, jsme stanovili normu pro zodpovědné používání Al. Touto normou se řídíme při vývoji produktů v oblasti zabezpečení. Abychom pozvedli laťku zabezpečení, zasazovali jsme se o vytvoření oborových rámců, na kterých jsme se pak také podíleli. K dosažení dlouhodobého úspěchu je však nezbytné budovat komunitu, která bude na problematice nadále pracovat. Proto jsme tak rádi vytvořili komunitu SAIF pro všechny.

Rozvoj kyberbezpečnosti

Zjistěte, jak chráníme víc lidí online než kdokoli jiný na světě.