Googles säkerhetsramverk för AI
(SAIF)

Möjligheterna med AI, särskild generativ AI, är otaliga. I takt med att nya idéer utvecklas behövs säkerhetsstandarder så att branschen skapar och implementerar AI på ett ansvarsfullt sätt. Därför har vi lanserat Secure AI Framework (SAIF), ett konceptuellt säkerhetsramverk för AI-system.

De sex viktigaste delarna i SAIF

SAIF är utformat för att ta itu med problem som säkerhetsexperter har lagt fram, till exempel inom riskhantering för AI/ML-modeller, säkerhet och integritet, och att se till att säkerhet är standard för AI-modeller som implementeras.

Utöka starka säkerhetsgrunder till AI-ekosystemet
Utöka identifieringen och motåtgärder med hjälp av AI i organisationens hothantering
Automatisera skydden för att ligga steget före befintliga och nya hot
Förena kontroller på plattformsnivå för att säkerställa att säkerheten är konsekvent i hela organisationen
Anpassa kontroller för att ändra begränsningar och skapa snabbare feedbackloopar för implementering av AI
Sätt risker med AI-system i sitt sammanhang i företagsprocesser
Ladda ned PDF
Möjliggöra ett säkrare
ekosystem

Vi delar gärna med oss av de första stegen på resan mot att skapa ett SAIF-ekosystem för myndigheter, företag och organisationer och främja ett säkerhetsramverk för AI-implementering som fungerar för alla.

Förse myndigheter och organisationer med SAIF

Vi samarbetar med myndigheter och organisationer för att minska de säkerhetsrisker som AI medför. Tillsammans med beslutsfattare och standardiseringsorganisationer, till exempel NIST, utvecklar vi reglerande ramverk. Vi lyfte nyligen fram SAIF's role inom att skydda AI-system tillsammans med Vita husets AI commitments.

Utöka SAIF med allierade inom branschen

Vi främjar branschstöd för SAIF tillsammans med partners och kunder, håller workshoppar om SAIF med utövare och publicerar rekommenderade metoder för AI-säkerhet. Tillsammans med Deloitte skrev vi en vitbok om hur organisationer kan använda AI för att hantera säkerhetsutmaningar.

Fler resurser
Vanliga frågor om SAIF

Hur är SAIF kopplat till Ansvarsfull AI?

Google är motiverat att build AI responsibly och att göra det möjligt för andra att göra samma sak. I våra AI Principles, som publicerades 2018, beskriver vi vårt åtagande att utveckla teknik på ett ansvarsfullt sätt och på ett sätt som är säkert, ansvarsfullt och håller hög vetenskaplig standard. Ansvarsfull AI är vårt övergripande tillvägagångssätt, vilket har flera aspekter och ska präglas av rättvisa, tolkningsmöjlighet, säkerhet och integritet. Detta styr all Googles utveckling av AI-produkter.

SAIF är vårt ramverk för att skapa ett standardiserat och holistiskt tillvägagångssätt för integrering av säkerhets- och integritetsåtgärder i program som drivs av ML. Den fokuserar på säkerhets- och integritetsområdena inom ansvarsfull AI-utveckling. Med SAIF utvecklas program som drivs av ML på ett ansvarsfullt sätt, med hänsyn till kommande hot och användarnas förväntningar.

Hur sätter Google SAIF i verket?

Google har länge satsat på ansvarsfull AI och utveckling av cybersäkerhet, och vi har utarbetat den bästa säkerhetspraxisen för AI-innovation i många år. Vårt säkerhetsramverk för AI grundar sig på lång erfarenhet och praxis som vi har utvecklat och implementerat. Det vilar dessutom på Googles tillvägagångssätt för att utveckla appar som drivs med ML och generativ AI, med responsiva, hållbara och skalbara skydd för integritet och säkerhet. Vi fortsätter att utveckla SAIF för att kunna hantera nya risker, förändrade förutsättningar och framsteg inom AI.

Hur kan ramverket implementeras?

Läs vår quick guide om hur SAIF-ramverket kan implementeras:

  • Steg 1: Förstå användningen
    • Börja med att förstå det specifika affärsproblemet som AI:n ska lösa och vilken data som behövs för att träna modellen. Använd de insikterna för att avgöra vilka principer, protokoll och kontroller som behöver implementeras enligt SAIF.
  • Steg 2: Samla teamet
    • Precis som med traditionella system behövs kunskap från många olika områden för att utveckla och implementera AI-system.
    • AI-system är ofta komplexa och svåröverskådliga, har många olika komponenter, behöver stora mängder data, är resurskrävande, kan användas för att tillämpa omdömesbaserade beslut och generera nytt innehåll som kan vara stötande, skadligt eller främja stereotyper och fördomar.
    • Det är viktigt att sätta ihop ett team med rätt specialkompetenser för att ta hänsyn till säkerhet, integritet, risk och efterlevnad redan från början.
  • Steg 3: Se till att alla är insatta med hjälp av en introduktion till AI
    • Det är viktigt att alla parter förstår basics of the AI model development lifecycle, utformningen och logiken bakom modellmetodiken, inklusive möjligheter, fördelar och begränsningar, när teamen utvärderar hur AI kan användas på företaget.
  • Steg 4: Tillämpa de sex viktigaste delarna i SAIF (anges ovan)
    • Du behöver inte tillämpa delarna i kronologisk ordning.

Var hittar jag mer information om SAIF och hur tillämpar jag ramverket på mitt företag eller rättssubjekt?

Håll utkik! Google skapar och delar kontinuerligt resurser, vägledning och verktyg för säkerhetsramverket för AI, samt andra rekommenderade metoder för utveckling av AI-program.

Därför stöder vi en säker AI-gemenskap för alla

Vi var ett av de första företagen som skrev en Al-praxis och har skapat en standard för ansvarsfull Al. Det är detta som vägleder oss när vi utvecklar produkter för säkerhet. Vi har kämpat för, och utvecklat, ramverk för branschen i syfte att höja ribban för säkerhet. Under tiden har vi lärt oss att det enda sättet att lyckas på sikt är att skapa en gemenskap för att gå vidare i arbetet. Därför ser vi fram emot att skapa en SAIF-gemenskap för alla.

Framsteg inom cybersäkerhet

Läs mer om hur vi skyddar fler människor online än någon annan i världen.