Googleov sigurnosni okvir za AI (SAIF)
Umjetna inteligencija, a posebno generativni AI, ima ogroman potencijal. Kako inovacije napreduju, tom su sektoru potrebni sigurnosni standardi za odgovoran razvoj i primjenu umjetne inteligencije. Zato smo uveli Sigurnosni okvir za AI (SAIF), konceptualni okvir za zaštitu AI sustava.
Sigurnosni okvir za AI osmišljen je za rješavanje problema koji najviše muče sigurnosne stručnjake, kao što su upravljanje rizicima, sigurnost i privatnost za AI/ML modele, čime se osigurava da AI modeli budu sigurni čim se implementiraju.
S veseljem vas obavještavamo o prvim koracima na našem putu prema razvoju ekosustava Sigurnosnog okvira za AI za državna tijela, tvrtke i organizacije radi promicanja okvira za sigurnu primjenu AI-ja koji funkcionira za svakoga.
Predstavljanje Sigurnosnog okvira za AI državnim tijelima i organizacijama
S vladama i organizacijama surađujemo na ublažavanju sigurnosnih rizika povezanih s primjenom umjetne inteligencije. Naš rad sa zakonodavcima i organizacijama za standarde, kao što je NIST, doprinosi razvoju regulatornih okvira. Nedavno smo istaknuli ulogu Sigurnosnog okvira za AI u zaštiti AI sustava, u skladu s dokumentom o obavezama u primjeni AI-ja Bijele kuće .
Proširivanje Sigurnosnog okvira za AI uz saveznike u branši
U suradnji s partnerima i klijentima, sigurnosni okvir za AI dobiva sve veću podršku u cijeloj branši. Održavamo radionice o Sigurnosnom okviru za AI sa stručnjacima i objavljujemo najbolje primjere iz prakse za sigurnost AI-ja. U partnerstvu s Deloitteom izradili smo bijelu knjigu o tome kako organizacije mogu upotrebljavati AI za suočavanje sa sigurnosnim izazovima.
-
Android: smjernice za siguran razvoj
Zaštitite svoju organizaciju pomoću Androidovih upozorenja o ranjivostima u stvarnom vremenu i slijedite smjernice o sigurnom razvoju koda za strojno učenje.
Kako je Sigurnosni okvir za AI povezan s odgovornim AI-jem?
Googleova je najvažnija zadaća odgovorno razvijati AI te druge potaknuti da čine to isto. U našim načelima za AI, objavljenim 2018. godine, opisuje se naša posvećenost odgovornom razvoju tehnologija na način koji omogućuje sigurnu i odgovornu upotrebu i pridržava se visokih standarda znanstvene izvrsnosti. Odgovoran AI naš je sveobuhvatni pristup koji ima nekoliko dimenzija kao što su pravednost, interpretabilnost, sigurnost i privatnost, a na kojima počiva cjelokupni razvoj proizvoda Googleovog AI-ja.
Sigurnosni okvir za AI naš je okvir za stvaranje standardiziranog i holističkog pristupa integraciji mjera za zaštitu sigurnosti i privatnosti u aplikacije koje se temelje na strojnom učenju. Usklađen je s dimenzijama sigurnosti i privatnosti odgovornog razvoja AI-ja. Sigurnosni okvir za AI osigurava da se aplikacije utemeljene na strojnom učenju razvijaju na odgovoran način, uzimajući u obzir prijeteće okruženje koje se neprekidno mijenja i korisnička očekivanja.
Kako Google primjenjuje Sigurnosni okvir za AI?
Google ima dugu povijest poticanja odgovornog razvoja AI-ja i kibernetičke sigurnosti, a najbolje primjere iz sigurnosne prakse već godinama primjenjujemo na inovacije u AI-ju. Naš sigurnosni okvir za AI temelji se na iskustvu i najboljim primjerima iz prakse koje razvijamo i primjenjujemo te odražava Googleov pristup razvoju aplikacija s primjenom strojnog učenja i generativnog AI-ja, uz responzivne, održive i skalabilne mjere zaštite u pogledu sigurnosti i privatnosti. Nastavit ćemo razvijati i stvarati Sigurnosni okvir za AI radi suočavanja s novim rizicima, promjenjivim okruženjima i napretkom u području umjetne inteligencije.
Kako stručnjaci mogu primijeniti taj okvir u praksi?
Pročitajte naš kratki vodič za primjenu Sigurnosnog okvira za AI:
-
1. korak – razumijevanje upotrebe
- Razumijevanje konkretnog poslovnog problema koji će AI rješavati i podataka koji su potrebni za obuku modela pomoći će pri izradi pravila, protokola i kontrola koje treba implementirati u sklopu Sigurnosnog okvira za AI.
-
2. korak – okupljanje tima
- Razvoj i implementacija sustava umjetne inteligencije, baš kao i tradicionalnih sustava, multidisciplinarni je posao.
- Sustavi umjetne inteligencije često su složeni i nejasni, imaju mnogo elemenata, oslanjaju se na velike količine podataka, troše mnogo resursa, mogu se upotrebljavati za primjenu odluka utemeljenih na prosuđivanju i mogu stvoriti novi sadržaj koji može biti uvredljiv i štetan ili perpetuirati stereotipe i društvene pristranosti.
- Okupite pravi tim s različitim funkcijama kako biste od samog početka uzeli u obzir pitanja sigurnosti, privatnosti, rizika i usklađenosti.
-
3. korak – upoznavanje svih s osnovnim informacijama o AI-ju
- Dok se timovi bave procjenom poslovne upotrebe, različitih i dinamičnih kompleksnosti, rizika i sigurnosnih kontrola koje se primjenjuju, od ključne je važnosti da dionici razumiju osnove životnog ciklusa u razvoju modela umjetne inteligencije, dizajn i logiku metodologija modela, uključujući mogućnosti, prednosti i ograničenja.
-
4. korak – primjena šest temeljnih elemenata Sigurnosnog okvira za AI (navedeno u prethodnom dijelu)
- Ti elementi ne moraju se primijeniti kronološkim redoslijedom.
Gdje mogu pronaći više informacija o Sigurnosnom okviru za AI i o tome kako ga primijeniti na svoju tvrtku ili subjekt?
Pratite novosti! Google će nastaviti razvijati i dijeliti resurse, upute i alate Sigurnosnog okvira za AI, kao i druge najbolje primjere iz prakse u razvoju aplikacija s umjetnom inteligencijom.
Kao jedna od prvih tvrtki koja je artikulirala načela za Al, postavili smo standard za odgovoran Al kojim se vodimo u razvoju svojih proizvoda kako bi oni bili sigurni. Zagovaramo i razvijamo okvire za podizanje razine sigurnosti te znamo da je za dugoročan uspjeh važno stvoriti zajednicu koja će promicati taj rad. Zato nas raduje što stvaramo zajednicu Sigurnosnog okvira za AI za sve korisnike.