Googles säkerhetsramverk för AI (SAIF)
Möjligheterna med AI, särskild generativ AI, är otaliga. I takt med att nya idéer utvecklas behövs säkerhetsstandarder så att branschen skapar och implementerar AI på ett ansvarsfullt sätt. Därför har vi lanserat Secure AI Framework (SAIF), ett konceptuellt säkerhetsramverk för AI-system.
SAIF är utformat för att ta itu med problem som säkerhetsexperter har lagt fram, till exempel inom riskhantering för AI/ML-modeller, säkerhet och integritet, och att se till att säkerhet är standard för AI-modeller som implementeras.
Vi delar gärna med oss av de första stegen på resan mot att skapa ett SAIF-ekosystem för myndigheter, företag och organisationer och främja ett säkerhetsramverk för AI-implementering som fungerar för alla.
Vi presenterar SAIF.Google: Säker AI börjar här
SAIF.Google är en ny resurshubb som hjälper säkerhetsproffs att navigera AI-säkerhetens föränderliga landskap. Den innehåller en samling risker och kontroller för AI-säkerhet, bland annat en självskattningsrapport för risker som kan hjälpa användare att förstå de risker som kan påverka dem och hur de kan implementera SAIF i sina organisationer. Dessa resurser hjälper till att trycka på behovet av att skapa och implementera säkra AI-system i ett snabbt föränderligt AI-landskap.
Coalition for Secure AI: Utöka SAIF med allierade inom branschen
Vi hjälper till att föra detta arbete framåt och att främja branschstöd genom att skapa ‘Coalition for Secure AI (CoSAI)’, med de grundande medlemmarna Anthropic, Amazon, Cisco, Cohere, Chainguard, GenLab, Google, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal och Wiz, för att tackla de svåra utmaningarna med att implementera säkra AI-system.
Förse myndigheter och organisationer med SAIF
Vi samarbetar med myndigheter och organisationer för att minska de säkerhetsrisker som AI medför. Tillsammans med beslutsfattare och standardiseringsorganisationer, till exempel NIST, utvecklar vi reglerande ramverk. Vi lyfte nyligen fram SAIF's role inom att skydda AI-system tillsammans med Vita husets AI commitments.
-
Android: Riktlinjer för säker utveckling
Skydda din organisation med Androids Sårbarhetsvarningar i realtid och följ riktlinjerna för säker utveckling av ML-kod.
Hur är SAIF kopplat till ansvarsfull AI?
Google är motiverat att utveckla AI på ett ansvarsfullt sätt och att göra det möjligt för andra att göra samma sak. I våra AI-principer, som publicerades 2018, beskriver vi vårt åtagande att utveckla teknik på ett ansvarsfullt sätt och på ett sätt som är säkert, ansvarsfullt och håller hög vetenskaplig standard. ansvarsfull AI är vårt övergripande tillvägagångssätt, vilket har flera aspekter och ska präglas av rättvisa, tolkningsmöjlighet, säkerhet och integritet. Detta styr all Googles utveckling av AI-produkter.
SAIF är vårt ramverk för att skapa ett standardiserat och holistiskt tillvägagångssätt för integrering av säkerhets- och integritetsåtgärder i program som drivs av ML. Den fokuserar på säkerhets- och integritetsområdena inom ansvarsfull AI-utveckling. Med SAIF utvecklas program som drivs av ML på ett ansvarsfullt sätt, med hänsyn till kommande hot och användarnas förväntningar.
Hur sätter Google SAIF i verket?
Google har länge satsat på ansvarsfull AI och utveckling av cybersäkerhet, och vi har utarbetat den bästa säkerhetspraxisen för AI-innovation i många år. Vårt säkerhetsramverk för AI grundar sig på lång erfarenhet och praxis som vi har utvecklat och implementerat. Det vilar dessutom på Googles tillvägagångssätt för att utveckla appar som drivs med ML och generativ AI, med responsiva, hållbara och skalbara skydd för integritet och säkerhet. Vi fortsätter att utveckla SAIF för att kunna hantera nya risker, förändrade förutsättningar och framsteg inom AI.
Hur kan ramverket implementeras?
Läs vår snabbguide om hur SAIF-ramverket kan implementeras:
-
Steg 1: Förstå användningen
- Börja med att förstå det specifika affärsproblemet som AI:n ska lösa och vilken data som behövs för att träna modellen. Använd de insikterna för att avgöra vilka principer, protokoll och kontroller som behöver implementeras enligt SAIF.
-
Steg 2: Samla teamet
- Precis som med traditionella system behövs kunskap från många olika områden för att utveckla och implementera AI-system.
- AI-system är ofta komplexa och svåröverskådliga, har många olika komponenter, behöver stora mängder data, är resurskrävande, kan användas för att tillämpa omdömesbaserade beslut och generera nytt innehåll som kan vara stötande, skadligt eller främja stereotyper och fördomar.
- Det är viktigt att sätta ihop ett team med rätt specialkompetenser för att ta hänsyn till säkerhet, integritet, risk och efterlevnad redan från början.
-
Steg 3: Se till att alla är insatta med hjälp av en introduktion till AI
- Det är viktigt att alla parter förstår grunderna gällande utveckligen av AI-modellers livscykel, utformningen och logiken bakom modellmetodiken, inklusive möjligheter, fördelar och begränsningar, när teamen utvärderar hur AI kan användas på företaget.
-
Steg 4: Tillämpa de sex viktigaste delarna i SAIF (anges ovan)
- Du behöver inte tillämpa delarna i kronologisk ordning.
Var hittar jag mer information om SAIF och hur tillämpar jag ramverket på mitt företag eller rättssubjekt?
Håll utkik! Google skapar och delar kontinuerligt resurser, vägledning och verktyg för säkerhetsramverket för AI, samt andra rekommenderade metoder för utveckling av AI-program.
Vi var ett av de första företagen som skrev en Al-praxis och har skapat en standard för ansvarsfull Al. Det är detta som vägleder oss när vi utvecklar produkter för säkerhet. Vi har kämpat för, och utvecklat, ramverk för branschen i syfte att höja ribban för säkerhet. Under tiden har vi lärt oss att det enda sättet att lyckas på sikt är att skapa en gemenskap för att gå vidare i arbetet. Därför ser vi fram emot att skapa en SAIF-gemenskap för alla.