Fortsätt till innehåll

Blå sköld med vit G-ikon.

Googles säkerhetsramverk för AI (SAIF)

Möjligheterna med AI, särskilt generativ AI, är otaliga. I takt med att nya idéer utvecklas behövs säkerhetsstandarder så att branschen skapar och implementerar AI på ett ansvarsfullt sätt. Därför har vi lanserat säkerhetsramverket för AI (SAIF), ett konceptuellt säkerhetsramverk för AI-system.

De sex viktigaste delarna i SAIF

SAIF är utformat för att ta itu med problem som säkerhetsexperter har lagt fram, till exempel inom riskhantering för AI/ML-modeller, säkerhet och integritet och att se till att säkerhet är standard när AI-modeller implementeras.
  • Utökar starka säkerhetsgrunder till AI-ekosystemet

  • Utökar identifieringen och motåtgärder med hjälp av AI i organisationens hothantering

  • Automatisera skydden för att ligga steget före befintliga och nya hot

  • Synkronisera kontroller på plattformsnivå för att säkerställa att säkerheten är konsekvent i hela organisationen

  • Anpassa kontroller för att ändra begränsningar och skapa snabbare feedbackloopar för implementering av AI

  • Sätt risker med AI-system i sitt sammanhang i företagsprocesser

Möjliggöra ett säkrare ekosystem

Vi ser fram emot att dela med oss av de första stegen på resan mot att skapa ett SAIF-ekosystem för myndigheter, företag och organisationer och främja ett säkerhetsramverk för AI-implementering som fungerar för alla.
Bild som visar ett rosa rutnät som skickar promptar till en skärm.

Vi presenterar SAIF.Google: Säker AI börjar här

SAIF.Google är en resurshubb som hjälper säkerhetsproffs att navigera AI-säkerhetens föränderliga landskap. Den innehåller en samling risker och kontroller för AI-säkerhet, bland annat en självskattningsrapport för risker som kan hjälpa användare att förstå de risker som kan påverka dem och hur de kan implementera SAIF i sina organisationer. Dessa resurser hjälper till att trycka på behovet av att skapa och implementera säkra AI-system i en snabbt föränderlig värld.
Grafisk illustration av en konstellation med blå sköld med ett vitt G i mitten, omgiven av ikoner med byggnader, hänglås, en profil, ett jordklot och ett dokument.

Förser myndigheter och organisationer med SAIF

Vi samarbetar med myndigheter och organisationer för att minska de säkerhetsrisker som AI medför. Tillsammans med beslutsfattare och standardiseringsorganisationer, till exempel NIST utvecklar vi reglerande ramverk. Vi lyfte nyligen fram SAIF:s roll inom att skydda AI-system tillsammans med Vita husets åtaganden inom AI.
Cirkel med logotyper för teknikföretag inuti.

Coalition for Secure AI: Utvidgar SAIF till allierade inom branschen

Vi hjälper till att föra detta arbete framåt och att främja branschstöd genom att skapa Coalition for Secure AI (CoSAI), med grundande medlemmar som Anthropic, Cisco, GenLab, IBM, Intel, Nvidia och PayPal, för att tackla de svåra utmaningarna med att implementera säkra AI-system.

Fler resurser

Vanliga frågor
om SAIF

Hur sätter Google SAIF i verket?

Google har länge satsat på ansvarsfull AI och utveckling av cybersäkerhet, och vi har utarbetat den bästa säkerhetspraxisen för AI-innovation i många år. Vårt säkerhetsramverk för AI grundar sig på lång erfarenhet och praxis som vi har utvecklat och implementerat. Det vilar dessutom på Googles tillvägagångssätt för att utveckla appar som drivs med ML och generativ AI, med responsiva, hållbara och skalbara skydd för integritet och säkerhet. Vi fortsätter att utveckla SAIF för att kunna hantera nya risker, förändrade förutsättningar och framsteg inom AI.

Hur kan ramverket implementeras?

Läs vår snabbguide om hur SAIF-ramverket kan implementeras:

  • Steg 1: Förstå användningen
    • Börja med att förstå det specifika affärsproblemet som AI:n ska lösa och vilken data som behövs för att träna modellen. Använd de insikterna för att avgöra vilka principer, protokoll och kontroller som behöver implementeras enligt SAIF.
  • Steg 2: Samla teamet
    • Precis som med traditionella system behövs kunskap från många olika områden för att utveckla och implementera AI-system.
    • AI-system är ofta komplexa och svåröverskådliga, har många olika komponenter, behöver stora mängder data, är resurskrävande, kan användas för att tillämpa omdömesbaserade beslut och generera nytt innehåll som kan vara stötande, skadligt eller främja stereotyper och fördomar.
    • Det är viktigt att sätta ihop ett team med rätt specialkompetenser för att ta hänsyn till säkerhet, integritet, risk och efterlevnad redan från början.
  • Steg 3: Se till att alla är insatta med hjälp av en introduktion till AI

    • Det är viktigt att alla parter förstår grunderna i AI-modellens utvecklingslivscykel , utformningen och logiken bakom modellmetodiken, inklusive möjligheter, fördelar och begränsningar, när teamen utvärderar hur AI kan användas på företaget.
  • Steg 4: Tillämpa de sex viktigaste delarna i SAIF

    • Du behöver inte tillämpa delarna i kronologisk ordning.

Var hittar jag mer information om SAIF och hur tillämpar jag ramverket på mitt företag eller rättssubjekt?

Håll utkik! Google skapar och delar kontinuerligt resurser, vägledning och verktyg för säkerhetsramverket för AI, samt andra rekommenderade metoder för utveckling av AI-program.

Därför stödjer vi en säker AI-community för alla

Vi var ett av de första företagen som formulerade AI-principer och vi har skapat en standard för ansvarsfull AI. Det är detta som vägleder oss när vi utvecklar produkter för säkerhet. Vi har kämpat för, och utvecklat, ramverk för branschen i syfte att höja ribban för säkerhet. Under tiden har vi lärt oss att det enda sättet att lyckas på sikt är att skapa en gemenskap. Därför ser vi fram emot att skapa en SAIF-gemenskap för alla.