Googles Secure AI Framework
(SAIF)

Mulighetene med AI, spesielt generativ AI, er mange. I takt med at nyskapingen fortsetter, trenger bransjen sikkerhetsstandarder for å utvikle og implementere AI på en ansvarlig måte. Derfor har vi lansert Secure AI Framework (SAIF), et konseptrammeverk for sikre AI-systemer.

Seks hovedelementer i SAIF

SAIF tar for seg viktige spørsmål sikkerhetseksperter kan ha, blant annet risikostyring, sikkerhet og personvern i forbindelse med AI/ML. Dette rammeverket kan bidra til at AI-modeller er sikre som standard når de implementeres.

Utvid sterke sikkerhetsgrunnlag til AI-økosystemet
Gjør AI til en del av organisasjonens arbeid mot trusler
Automatiser forsvarsmekanismer for å holde tritt med eksisterende og nye trusler
Harmoniser kontroller på plattformnivå for å få samme grad av sikkerhet i hele organisasjonen
Tilpass kontroller for å justere tiltak og skape raskere tilbakemeldingssløyfer for implementering av AI
Sett risikoer forbundet med AI-systemer i sammenheng med andre forretningsprosesser
Last ned PDF
For et tryggere
økosystem

Vi er glade for å kunne dele det første skrittet i utviklingen av et SAIF-økosystem for myndigheter, bedrifter og organisasjoner som kan fremme et rammeverk for sikker implementering av AI som gagner alle.

SAIF til myndigheter og organisasjoner

Vi samarbeider med myndigheter og organisasjoner for å bidra til å redusere AI-relaterte sikkerhetsrisikoer. Arbeidet vi gjør sammen med myndigheter og organisasjoner som utvikler standarder, for eksempel NIST, bidrar til å videreutvikle rammer for regelverk. Vi beskrev nylig SAIFs rolle i arbeidet med å sikre AI-systemer i henhold til AI-forpliktelsene til Det hvite hus.

Vi utvider SAIF med samarbeidspartnere fra bransjen

Vi skaper støtte i bransjen for SAIF sammen med partnere og kunder, holder SAIF-seminarer med spesialister og publiserer anbefalte fremgangsmåter for sikkerhet i forbindelse med AI. Vi har samarbeidet med Deloitte om et teknisk dokument som beskriver hvordan organisasjoner kan bruke AI til å håndtere sikkerhetsutfordringer.

Flere ressurser
Vanlige spørsmål om SAIF

Hva er koblingen mellom SAIF og ansvarlig AI?

Google ønsker å utvikle AI på en ansvarlig måte og hjelpe andre med å gjøre det samme. I AI-prinsippene våre, som ble publisert i 2018, beskrives arbeidet vi har gjort med å utvikle teknologi på en ansvarlig måte og på en måte som ivaretar sikkerheten, gjør det mulig å ta ansvar og overholder høye vitenskapelige standarder. Ansvarlig AI er en generell tilnærming som har flere dimensjoner, deriblant «rettferdighet», «tolkingsevne», «sikkerhet» og «personvern», som styrer all Googles utvikling av AI-produkter.

SAIF er rammeverket vi bruker for å skape en standardisert og helhetlig tilnærming til integrering av sikkerhets- og personverntiltak i ML-baserte apper. Det er i tråd med dimensjonene «sikkerhet» og «personvern» i ansvarlig AI-utvikling. SAIF bidrar til ansvarlig utvikling av ML-baserte apper og tar hensyn til brukernes forventninger og et trusselbilde som er i stadig endring.

Hvordan setter Google SAIF ut i livet?

Google har lenge jobbet for ansvarlig bruk av AI og utvikling av cybersikkerhet, og vi har i mange år kartlagt anbefalte fremgangsmåter for sikkerhet og knyttet dem til utviklingen av AI. Secure AI Framework er basert på erfaringene våre og anbefalte fremgangsmåter vi har utviklet og implementert. Det gjenspeiler Googles tilnærming til utvikling av apper basert på ML og generativ AI, ved bruk av responsive, bærekraftige og skalerbare tiltak for sikkerhet og personvern. Vi kommer til å videreutvikle SAIF for å tilpasse det til nye risikoer, endringer i bransjen og nyvinninger innen AI.

Hvordan kan spesialister implementere rammeverket?

Se hurtigveiledningen vår om implementering av SAIF-rammeverket:

  • Trinn 1: Forstå bruken
    • Det er viktig å forstå det spesifikke forretningsproblemet AI skal løse, og hvilke data som trengs for å lære opp modellen, for å lage retningslinjene, protokollene og kontrollene som må implementeres som en del av SAIF.
  • Trinn 2: Sett sammen et team
    • Utvikling og implementering av AI-systemer krever tverrfaglig innsats, på samme måte som tradisjonelle systemer.
    • AI-systemer er ofte komplekse og ugjennomsiktige, har mange bevegelige deler, trenger store mengder data, er ressursintensive, kan brukes til å ta bedømmelsesbaserte avgjørelser og kan skape nytt innhold som kan være støtende og skadelig eller kan formidle stereotyper og sosiale fordommer.
    • Etabler et sterkt, tverrfaglig team som kan sørge for at sikkerhet, personvern, risikostyring og overholdelse av regler ivaretas fra starten av.
  • Trinn 3: Spre kunnskap med en begynnerveiledning til AI
    • Når teamene jobber med å evaluere forretningsbruk, de ulike og varierende utfordringene, risikoene og sikkerhetskontrollene, er det svært viktig at alle involverte parter har en grunnleggende forståelse av utviklingssyklusen for AI-modeller, designet og logikken bak modellmetodologier, inkludert egenskaper, fordeler og begrensninger.
  • Trinn 4: Bruk de seks hovedelementene av SAIF (beskrevet ovenfor)
    • Disse elementene trenger ikke å brukes i kronologisk rekkefølge.

Hvor kan jeg finne mer informasjon om SAIF og hvordan jeg kan bruke det i bedriften eller organisasjonen min?

Følg med! Google kommer til å lage og dele flere ressurser, veiledninger og verktøy for Secure AI Framework i tillegg til andre anbefalte fremgangsmåter for utvikling av AI-apper.

Hvorfor vi støtter et trygt AI-fellesskap for alle

Som et av de første selskapene som har utarbeidet prinsipper for AI, har vi satt en standard for ansvarlig Al. Denne standarden styrer utviklingen vår av sikre produkter. Vi har jobbet for og utviklet bransjeomfattende rammeverk for å styrke sikkerheten, og vi har lært at det å bygge fellesskap er en viktig del av arbeidet hvis vi skal lykkes på lang sikt. Derfor gleder vi oss til å skape et SAIF-fellesskap som er åpent for alle.

Fremskritt innen cybersikkerhet

Finn ut hvordan vi holder flere folk trygge på nettet enn noen andre i verden.