Googlen turvallisen tekoälyn kehys (SAIF)
Tekoälyllä, erityisesti generatiivisella tekoälyllä, on valtavasti potentiaalia. Kun innovaatioita syntyy lisää, alalla tarvitaan turvallisuusstandardeja, jotta tekoälyä kehitetään ja käytetään vastuullisesti. Siksi olemme julkaisseet turvallisen tekoälyn kehyksen (SAIF). Se on käsitteellinen kehys tekoälyjärjestelmien turvaamiseksi.
SAIF on suunniteltu ratkaisemaan tietoturva-asiantuntijoiden suurimpia huolenaiheita, esimerkiksi tekoälyn tai koneoppimisen riskienhallinta, turvallisuus ja yksityisyys. SAIF auttaa varmistamaan, että sovellettavat tekoälymallit ovat oletuksena turvallisia.
Olemme rakentaneet SAIF-ekosysteemiä valtioille, yrityksille ja organisaatioille edistääksemme turvallisen tekoälyn kehystä, joka sopii kaikille. Haluamme nyt kertoa ensimmäisistä edistysaskeleistamme.
SAIF-kehyksen tuominen valtioiden ja organisaatioiden käyttöön
Teemme yhteistyötä valtioiden ja organisaatioiden kanssa tekoälyyn liittyvien turvallisuusriskien pienentämiseksi. Edistämme säädöskehyksiä työllä, jota teemme päättäjien ja standardiorganisaatioiden, kuten NIST, kanssa. Toimme äskettäin esiin SAIF-kehyksen roolin tekoälyjärjestelmien suojauksessa ja yhdenmukaistimme kehystä Valkoisen talon tekoälysitoumusten kanssa.
SAIF-kehyksen tuominen kumppanien käyttöön
Saamme tukea SAIF-kehykselle alan kumppaneilta ja asiakkailta, järjestämme SAIF-työpajoja sitä soveltaville ammattilaisille sekä julkaisemme tekoälyn turvallisuutta koskevia parhaita käytäntöjä. Julkaisimme yhteistyössä Deloitten kanssa raportin siitä, miten organisaatiot voivat käyttää tekoälyä turvallisuushaasteiden käsittelemisessä.
-
Android: Ohjeet turvalliselle kehitystyölle
Suojaa organisaatio Androidin reaaliaikaisilla haavoittuvuusvaroituksilla ja seuraa koneoppimiskoodin turvallista kehitystä koskevia ohjeita.
Miten SAIF-kehys ja vastuullinen tekoäly liittyvät toisiinsa?
Googlelle on ensiarvoisen tärkeää kehittää AI:tä vastuullisesti ja tukea muitakin kehitystyössä. Vuonna 2018 julkaistuissa tekoälyn eettisissä periaatteissa kuvataan sitoumustamme kehittää teknologiaa vastuullisesti tavalla, jossa huomioidaan turvallisuus, tuetaan vastuullisuutta ja pidetään yllä korkeita tieteellisen osaamisen standardeja. Vastuullinen tekoäly on yleinen lähestymistapamme, johon kuuluu useita ulottuvuuksia, esimerkiksi oikeudenmukaisuus, tulkittavuus, turvallisuus ja yksityisyys. Ne ohjaavat kaikkea Google AI:n tuotekehitystä.
SAIF on kehys, jolla luomme standardoidun ja kokonaisvaltaisen lähestymistavan turvallisuus- ja yksityisyystoimenpiteiden integroimiseksi koneoppimiseen perustuviin sovelluksiin. Kehys on linjassa tekoälyn vastuullisen kehittämisen turvallisuus- ja yksityisyysulottuvuuksien kanssa. SAIF-kehyksellä varmistetaan, että koneoppimiseen perustuvat sovellukset kehitetään vastuullisella tavalla sekä muuttuvat uhat ja käyttäjien odotukset otetaan huomioon.
Miten Google soveltaa SAIF-kehystä?
Google on jo pitkään edistänyt vastuullisen tekoälyn ja kyberturvallisuuden kehittämistä sekä kartoittanut usean vuoden ajan turvallisuuden parhaita käytäntöjä uusille tekoälyinnovaatioille. Turvallisen tekoälyn kehys pohjautuu kokemuksiimme ja parhaisiin käytäntöihin, joita olemme kehittäneet ja soveltaneet. Kehys kuvastaa Googlen lähestymistapaa koneoppimista ja generatiivista tekoälyä hyödyntäviin sovelluksiin ja sisältää responsiivisia, vastuullisia ja skaalautuvia suojausominaisuuksia tietosuojaa ja yksityisyyttä varten. Jatkamme SAIF-kehyksen kehittämistä, jotta voimme käsitellä tekoälyn uusia riskejä, muutoksia ja saavutuksia.
Miten ammattilaiset voivat soveltaa kehystä?
Katso SAIF-kehyksen soveltamista koskeva pikaopas:
-
Vaihe 1 – Selvitä käyttötarkoitus
- Kun saat selville, minkä liiketoimintaongelman tekoäly voi ratkaista ja minkälaista dataa tarvitset mallin kouluttamiseen, voit kehittää SAIF-kehyksen soveltamisen mukaisia käytäntöjä, protokollia ja tarkastusmenetelmiä.
-
Vaihe 2 – Kokoa tiimi
- Tekoälyjärjestelmien kehittämiseen ja soveltamiseen tarvitaan monialaista osaamista aivan kuten perinteistenkin järjestelmien.
- Tekoälyjärjestelmät ovat usein monimutkaisia, eivätkä ne ole aina läpinäkyviä. Niissä on paljon liikkuvia osia ja ne perustuvat suureen määrään dataa sekä vaativat paljon resursseja. Niitä voidaan soveltaa harkintaan perustuvaan päätöksentekoon. Järjestelmät voivat luoda uutta sisältöä, joka saattaa olla loukkaavaa ja haitallista tai vahvistaa stereotypioita ja yhteiskunnallisia ennakkoasenteita.
- Kokoa oikeanlainen, monialainen tiimi, jonka tehtävänä on varmistaa, että turvallisuuteen, yksityisyyteen, riskeihin ja sääntöjen noudattamiseen liittyvät seikat otetaan huomioon alusta asti.
-
Vaihe 3 – Varmista tutustuminen tekoälyn perusteisiin
- Kun tiimit alkavat arvioida AI:n käyttöä liiketoiminnassa, erilaisia muuttuvia ongelmia, riskejä ja turvallisuusvalvontaa, on erittäin tärkeää, että kaikki ymmärtävät perusasiat tekoälymallien kehittämisen elinkaaresta sekä tekoälymallimenetelmien suunnittelua ja logiikkaa (esimerkiksi ominaisuuksia), tuloksia ja rajoitteita.
-
Vaihe 4 – Sovella SAIF-kehyksen kuutta pääelementtiä (lueteltu edellä)
- Elementtejä ei ole tarkoitus soveltaa kronologisessa järjestyksessä.
Mistä saan lisätietoa SAIF-kehyksestä ja miten voin soveltaa ohjeita yrityksessäni tai organisaatiossani?
Pysy kuulolla! Google jatkaa turvallisen tekoälyn kehykseen (SAIF) sisältyvien resurssien, ohjeiden ja työkalujen rakentamista ja jakamista. Tulemme kertomaan myös muista tekoälysovellusten kehityksen parhaista käytännöistä.
Koska olemme ensimmäisiä yrityksiä, jotka ovat julkaisseet tekoälyperiaatteensa, olemme luoneet standardeja vastuulliselle tekoälylle. Tuotekehityksemme turvallisuus pohjautuu niihin. Olemme ajaneet ja kehittäneet alakohtaisia kehyksiä, joilla voi nostaa turvallisuusvaatimuksia. Lisäksi olemme oppineet, että työtä edistävän yhteisön luominen on ehdottoman tärkeää, jos tavoittelee menestystä pitkällä tähtäimellä. Tästä syystä meille on tärkeää rakentaa SAIF-yhteisöä kaikille.