Googlen turvallisen tekoälyn kehys
(SAIF)

Tekoälyssä on valtavasti potentiaalia, ja tämä pätee erityisesti generatiiviseen tekoälyyn. Kun innovaatioita syntyy lisää, alalla tarvitaan turvallisuusstandardeja tekoälyn vastuulliseen kehittämiseen ja käyttämiseen. Siksi olemme laatineet turvallisen tekoälyn kehyksen (SAIF), joka on käsitteellinen kehys tekoälyjärjestelmien turvaamiseksi.

SAIF-kehyksen kuusi pääelementtiä

SAIF on suunniteltu ratkaisemaan tietoturva-asiantuntijoiden suurimpia huolenaiheita, esimerkiksi tekoälyn tai koneoppimisen riskienhallinta, turvallisuus ja yksityisyys. SAIF auttaa varmistamaan, että sovellettavat tekoälymallit ovat oletuksena turvallisia.

Vahvan turvallisuusperustan laajentaminen tekoälyekosysteemiin
Havaitsemisen ja reagoinnin laajentaminen organisaatiossa tekoälyn uhkiin
Suojautumisen automatisointi nykyisten ja uusien uhkien torjumiseksi
Alustatason suojausten yhdenmukaistaminen organisaation tietoturvan yhtenäistämiseksi
Menetelmien käyttöönotto suojautumisen mukauttamiseksi ja palauteprosessin nopeuttamiseksi tekoälyn käyttöönotossa
Tekoälyjärjestelmien riskien asettaminen kontekstiin liiketoimintaprosesseissa
Lataa PDF
Turvallisempaa
ekosysteemiä rakentamassa

Kehitämme SAIF-ekosysteemiä valtioille, yrityksille ja muille organisaatioille, jotta kaikilla olisi sopiva kehys turvallisen tekoälyn käyttöönottoon. Esittelemme nyt ensimmäiset edistysaskeleet tällä matkalla.

Esittelyssä SAIF.Google: Turvallinen tekoäly alkaa täältä

SAIF.Google on uusi materiaalikeskus, joka auttaa tietoturva-ammattilaisia navigoimaan jatkuvasti muuttuvassa tekoälyturvallisuuden maailmassa. Sinne on koottu tietoa tekoälyyn liittyvistä turvallisuusriskeistä ja niiltä suojautumisesta, esimerkiksi riskien itsearviointiraportti (Risk Self-Assessment Report). Näiden materiaalien avulla ammattilaiset voivat paremmin tunnistaa heihin mahdollisesti kohdistuvat riskit, ja niistä saa ohjeita SAIF:n käyttöönottoon organisaatiossa. Nämä materiaalit auttavat vastaamaan kriittiseen tarpeeseen kehittää ja ottaa käyttöön turvallisia tekoälyjärjestelmiä, kun tekoäly kehittyy vauhdilla.

Coalition for Secure AI: SAIF-kehyksen tuominen kumppanien käyttöön

Olemme perustaneet Coalition for Secure AI:n (CoSAI), jotta voimme edistää tätä työtä ja saada sille alan toimijoiden tuen. CoSAI:n tavoitteena on ratkoa kriittisiä haasteita, jotka liittyvät turvallisten tekoälyjärjestelmien käyttöönottoon. Muita perustajajäseniä ovat esimerkiksi Anthropic, Amazon, Cisco, Cohere, Chainguard, GenLab, Google, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal ja Wiz.

SAIF-kehyksen tuominen valtioiden ja organisaatioiden käyttöön

Teemme yhteistyötä valtioiden ja organisaatioiden kanssa tekoälyyn liittyvien turvallisuusriskien pienentämiseksi. Työmme päättäjien ja standardisointi-instituuttien (kuten NIST) kanssa edistää sääntelykehysten kehittämistä. Toimme vastikään esille SAIF:n roolia tekoälyjärjestelmien suojauksessa, ja se on linjassa Valkoisen talon tekoälysitoumusten kanssa.

Lisätietoa
Yleisiä kysymyksiä SAIF-kehyksestä

Miten SAIF-kehys ja vastuullinen tekoäly liittyvät toisiinsa?

Googlelle on ensiarvoisen tärkeää kehittää tekoälyä vastuullisesti ja tukea myös muita tässä pyrkimyksessä. Vuonna 2018 julkaistuissa tekoälyn eettisissä periaatteissa kuvataan sitoumustamme kehittää teknologiaa vastuullisesti tavalla, jossa huomioidaan turvallisuus, tuetaan vastuullisuutta ja pidetään yllä korkeita tieteellisen osaamisen standardeja. Vastuullinen tekoäly on kattokäsitteemme, jonka ulottuvuuksia ovat esimerkiksi oikeudenmukaisuus, tulkittavuus, turvallisuus ja yksityisyys. Nämä periaatteet ohjaavat kaikkea Googlen tekoälyn tuotekehitystä.

SAIF on kehys, jolla luomme standardoidun ja kokonaisvaltaisen lähestymistavan turvallisuus- ja yksityisyystoimenpiteiden integroimiseksi koneoppimiseen perustuviin sovelluksiin. Kehys on linjassa tekoälyn vastuullisen kehittämisen turvallisuus- ja yksityisyysulottuvuuksien kanssa. SAIF-kehyksellä varmistetaan, että koneoppimista hyödyntävät sovellukset kehitetään vastuullisesti huomioiden muuttuvat uhat ja käyttäjien odotukset.

Miten Google soveltaa SAIF-kehystä käytännössä?

Google on jo pitkään edistänyt vastuullisen tekoälyn ja kyberturvallisuuden kehittämistä sekä kartoittanut usean vuoden ajan turvallisuuden parhaita käytäntöjä uusille tekoälyinnovaatioille. Turvallisen tekoälyn kehys pohjautuu kokemuksiimme ja parhaisiin käytäntöihin, joita olemme kehittäneet ja soveltaneet. Kehys kuvastaa Googlen lähestymistapaa koneoppimista ja generatiivista tekoälyä hyödyntäviin sovelluksiin ja sisältää responsiivisia, vastuullisia ja skaalautuvia suojausominaisuuksia tietosuojaa ja yksityisyyttä varten. Jatkamme SAIF-kehyksen kehittämistä, jotta voimme reagoida tekoälyn uusiin riskeihin, muutoksiin ja edistysaskeliin.

Miten ammattilaiset voivat soveltaa kehystä?

Katso SAIF-kehyksen soveltamista koskeva pikaopas:

  • Vaihe 1 – Määritä käyttötarkoitus
    • Kun tiedetään, mikä liiketoimintaongelma tekoälyllä halutaan ratkaista ja minkälaista dataa mallin kouluttamiseen tarvitaan, SAIF-kehyksen edellyttämät käytännöt, protokollat ja suojaukset on helpompi kehittää ja toteuttaa.
  • Vaihe 2 – Kokoa tiimi
    • Järjestelmien kehittämiseen ja käyttöönottoon tarvitaan monialaista osaamista, olipa kyse perinteisistä tai tekoälyjärjestelmistä.
    • Tekoälyjärjestelmät ovat usein monimutkaisia, eivätkä ne ole aina läpinäkyviä. Niissä on paljon liikkuvia osia ja ne perustuvat suureen määrään dataa sekä vaativat paljon resursseja. Niitä voidaan soveltaa harkintaan perustuvaan päätöksentekoon. Järjestelmät voivat luoda uutta sisältöä, joka saattaa olla loukkaavaa ja haitallista tai vahvistaa stereotypioita ja yhteiskunnallisia ennakkoasenteita.
    • Kokoa sopiva monialainen tiimi varmistamaan, että turvallisuuteen, yksityisyyteen, riskeihin ja vaatimustenmukaisuuteen liittyvät näkökohdat huomioidaan alusta asti.
  • Vaihe 3 – Varmista tutustuminen tekoälyn perusteisiin
    • Seuraavaksi tiimit ryhtyvät arvioimaan tekoälyn käyttöä liiketoiminnassa sekä erilaisia muuttuvia ongelmia, riskejä ja suojauksia. Tässä vaiheessa on tärkeää varmistaa, että kaikilla on perustiedot tekoälymallien kehittämisen elinkaaresta sekä mallimenetelmien suunnittelusta ja logiikasta, mukaan lukien ominaisuuksista, eduista ja rajoituksista.
  • Vaihe 4 – Sovella SAIF-kehyksen kuutta pääelementtiä (lueteltu edellä)
    • Elementtejä ei ole tarkoitus soveltaa kronologisessa järjestyksessä.

Mistä saan lisätietoa SAIF-kehyksestä ja miten voin soveltaa ohjeita yrityksessäni tai organisaatiossani?

Pysy kuulolla! Google jatkaa turvallisen tekoälyn kehykseen (SAIF) liittyvien materiaalien, ohjeiden ja työkalujen kehittämistä ja jakamista. Kehitämme myös muita tekoälysovellusten kehityksen parhaita käytäntöjä ja annamme niistä tietoa jatkossakin.

Miksi haluamme kehittää turvallisen tekoälyn yhteisöä kaikille

Julkaisimme tekoälyä koskevat periaatteemme ensimmäisten yritysten joukossa. Näin asetimme vaatimustason vastuulliselle tekoälylle, ja tuotekehityksemme nojaa näihin periaatteisiin turvallisuusnäkökohdissa. Olemme edistäneet ja kehittäneet alakohtaisia kehyksiä, joiden tavoitteena on nostaa turvallisuudelle asetettua vaatimustasoa. Samalla olemme oppineet, että tätä työtä edistävä yhteisö on ehdottoman tärkeä pitkän tähtäimen menestyksen kannalta. Siksi meille on tärkeää kehittää SAIF-yhteisöä kaikille.

Näin kyberturvallisuutta on parannettu

Katso, miten edistämme verkkoturvallisuutta maailmanlaajuisesti.