Přejít na obsah

Ikona modrého štítu s bílým písmenem G.

Secure AI Framework (SAIF) od Googlu

Potenciál umělé inteligence, a zejména generativní umělé inteligence, je nezměrný. Vzhledem k nepřetržitému proudu inovací potřebuje i tento obor bezpečnostní standardy pro zodpovědné vytváření a implementaci AI. Proto jsme představili Secure AI Framework (SAIF), koncepční rámec pro bezpečné systémy AI.

Šest základních prvků SAIF

Rámec SAIF má za úkol řešit zásadní obavy bezpečnostních odborníků, například řízení rizik v modelech umělé inteligence či strojového učení nebo zabezpečení a ochranu soukromí, a pomáhá zajistit, aby modely umělé inteligence byly bezpečné z podstaty již v okamžiku implementace.
  • Rozšíření silných základů zabezpečení na ekosystém AI

  • Rozšíření detekce a odezvy za účelem začlenění AI do systému organizace pro řešení hrozeb

  • Automatická ochrana, která drží krok se stávajícími i novými hrozbami

  • Harmonizace ovládacích prvků na úrovni platformy za účelem zajištění konzistentního zabezpečení v celé organizaci

  • Úprava ovládacích prvků k přizpůsobení zmírnění a vytvoření rychlejších smyček zpětné vazby pro implementaci AI

  • Uvedení rizik systému AI do kontextu s okolními firemními procesy

Zajištění bezpečnějšího ekosystému

S nadšením sdílíme tyto první kroky na cestě za vytvořením ekosystému SAIF v orgánech státní správy, firmách a organizacích, abychom prosadili rámec bezpečné implementace AI, který bude fungovat u všech.
Grafika zobrazující růžovou mřížku odesílající pokyny na obrazovku.

Představujeme SAIF.Google: Bezpečná AI začíná tady

SAIF.Google je centrální místo se zdroji, které mají odborníkům na zabezpečení pomoci orientovat se ve vyvíjejícím se prostředí zabezpečení AI. Poskytuje seznam bezpečnostních rizik spojených s AI a opatření k jejich minimalizaci, včetně přehledu Risk Self-Assessment Report, pomocí kterého mohou organizace samy vyhodnotit, jaká rizika by se jich mohla týkat a jak mohou implementovat rámec SAIF. Tyto zdroje pomohou řešit kritickou potřebu budování a implementace zabezpečených AI systémů v rychle se vyvíjejícím světě umělé inteligence.
Grafika souhvězdí s modrým štítem s bílým písmenem G uprostřed a ikonami budovy, zámku, profilu, zeměkoule a dokumentu okolo.

Přinášíme SAIF veřejným institucím i organizacím

Společně s orgány státní správy a nejrůznějšími organizacemi se snažíme zmírňovat bezpečnostní rizika AI. Naše spolupráce se zákonodárci a organizacemi pro normalizaci, jako je NIST, přispívá k rozvoji regulatorních rámců. Nedávno jsme například poukázali na roli rámce SAIF při zabezpečení systémů AI v souladu s požadavky Bílého domu.
Kruh s logy technologických společností.

Koalice pro bezpečnou AI: Rozšiřujeme rámec SAIF s podporou partnerů v oboru

S cílem pomoci řešit kritické výzvy při implementaci zabezpečených AI systémů v celém oboru jsme založili Koalici pro bezpečnou AI, jejímiž dalšími zakládajícími členy jsou společnosti jako Anthropic, Cisco, GenLab, IBM, Intel, Nvidia, a PayPal.

Další zdroje

Časté dotazy
ohledně SAIF

Jak společnost Google rámec SAIF realizuje?

Společnost Google už dlouhou dobu podporuje zodpovědný vývoj AI a kyberbezpečnost a řadu let mapuje doporučené postupy zabezpečení inovací v oblasti AI. Náš rámec Secure AI Framework vychází ze spousty zkušeností a doporučených postupů, které jsme vyvinuli a implementovali, a odráží přístup společnosti Google k vytváření aplikací využívajících strojové učení a generativní umělou inteligenci s responzivní, udržitelnou a škálovatelnou ochranou zabezpečení a soukromí. Chceme rámec SAIF dál vyvíjet a přizpůsobovat tak, aby se dokázal vypořádat s novými riziky, měnícím se prostředím a pokroky v oblasti AI.

Jak můžou provozovatelé rámec implementovat?

Přečtěte si našeho rychlého průvodce implementací rámce SAIF:

  • Krok 1 – Pochopte použití
    • Pochopení konkrétních podnikových problémů, které AI vyřeší, a povědomí o datech potřebných k trénování modelu pomůže s vytvořením zásad, protokolů a ovládacích prvků, které je třeba v rámci SAIF implementovat.
  • Krok 2 – Sestavte tým
    • Vývoj a implementace systémů AI, stejně jako tradičních systémů, jsou multidisciplinární záležitosti.
    • Systémy AI jsou často složité a nepřehledné, zahrnují velké množství pohyblivých částí, spoléhají na velké množství dat, jsou náročné na zdroje, lze je použít k rozhodování na základě úsudku a mohou generovat nový obsah, který může být urážlivý, škodlivý nebo může udržovat stereotypy a sociální předsudky.
    • Sestavte správný mezifunkční tým, který zajistí, aby se od začátku zohledňovaly aspekty zabezpečení, ochrany soukromí, rizik a dodržování předpisů.
  • Krok 3 – Sjednoťte znalosti pomocí úvodu do AI

    • Když týmy začínají vyhodnocovat obchodní využití AI a různé a vyvíjející se složitosti, rizika a bezpečnostní ovládací prvky, které se na ni vztahují, je zásadní, aby všechny zúčastněné strany rozuměly základům životního cyklu vývoje modelu AI , návrhu a logice metodologií modelu, včetně možností, výhod a omezení.
  • Krok 4 – Použijte šest základních prvků SAIF

    • Tyto prvky nejsou určeny k použití v chronologickém pořadí.

Kde najdu další informace o rámci SAIF a o tom, jak ho použít v naší firmě nebo subjektu?

Sledujte aktuální informace. Google bude dál vytvářet a sdílet zdroje, rady a nástroje související s rámcem Secure AI Framework a další doporučené postupy ohledně vývoje aplikací AI.

Proč podporujeme bezpečnou AI komunitu pro všechny

Jako jedna z prvních společností, které formulovaly principy AI, jsme stanovili normu pro zodpovědné používání AI, kterou se při vývoji produktů v oblasti bezpečnosti také řídíme. Abychom pozvedli laťku zabezpečení, zasazovali jsme se o vytvoření oborových rámců, na kterých jsme se pak také podíleli. K dosažení dlouhodobého úspěchu je však nezbytné budovat komunitu, která se touto problematikou bude i nadále zabývat. Proto jsme tak rádi vytvořili komunitu SAIF pro všechny.