A Google Secure AI Frameworkje
(SAIF)

Az AI-ban – különösen a generatív AI-ban – óriási potenciál rejlik. A fejlődéssel párhuzamosan a szektornak szüksége van olyan biztonsági szabványokra, amelyek segítenek az AI felelős alakításában és bevezetésében. Ezért vezettük be a Secure AI Frameworköt (SAIF), amely egy elvi keretrendszer a biztonságos AI-rendszerekhez.

A SAIF hat alapvető eleme

A SAIF tervezésekor az volt a cél, hogy választ adjunk a biztonsági szakértők által megfogalmazott legfontosabb aggályokra, például az AI/ML-modell kockázatainak kezelésével, a biztonsággal és az adatvédelemmel kapcsolatban – és segítsünk abban, hogy az AI-modellek alapértelmezés szerint biztonságosak legyenek a megvalósításukkor.

Erős biztonsági alapok meghatározása az AI-ökoszisztéma számára
Az észlelés és a reagálás kiterjesztése, hogy az AI segíthessen a szervezeteket fenyegető veszélyek elhárításában
A védelmi megoldások automatizálása, hogy lépést tartsunk a meglévő és az új fenyegetésekkel
Hangolja össze a platformszintű vezérlőket, hogy a biztonsági megoldások egységesek legyenek a szervezeten belül
A vezérlők módosítása a kárenyhítés javítása, valamint gyorsabb visszajelzési rendszerek létrehozása érdekében az AI bevezetése területén
Az AI-rendszer által jelentett kockázatok kontextusba helyezése a környező üzleti folyamatokban
PDF-fájl letöltése
Egy biztonságosabb
ökoszisztéma alkalmazása

Örömmel számolunk be a SAIF ökoszisztéma kialakítása felé vezető, kormányokkal, vállalkozásokkal és más szervezetekkel közösen megtenni kívánt út első lépéseiről, amelynek során egy olyan biztonságos AI-bevezetési keretrendszert alkotunk meg, amely mindenki számára megfelelő.

A SAIF bemutatása kormányoknak és szervezeteknek

A kormányokkal és más szervezetekkel együttműködve segítünk az AI által jelentett biztonsági kockázatok csökkentésében. A szabályalkotókkal és a szabványügyi szervezetekkel – mint amilyen a NIST – közösen végzett munkánk hozzájárul az egyre fejlődő szabályozási keretrendszerek kialakításához. Nemrég kiemeltük a SAIF szerepét az AI-rendszerek biztonságosabbá tételében, igazodva a Fehér Ház AI-jal kapcsolatos állásfoglalásához.

A SAIF kiterjesztése az ágazati szövetségeinkkel közösen

Partnereinkkel és ügyfeleinkkel közösen előmozdítjuk a SAIF támogatását az ágazatban, a SAIF megoldással kapcsolatos workshopokat tartunk a gyakorlati alkalmazóknak, és közzétesszük az AI-biztonsággal kapcsolatos bevált módszereket. A Deloitte vállalattal közösen készítettünk egy tanulmányt arról, hogy a szervezetek hogyan használhatják az AI-t a biztonsági kihívások leküzdésére.

További források
Gyakori kérdések a SAIF keretrendszerrel kapcsolatban

Hogyan kapcsolódik egymáshoz a SAIF és a felelős AI?

A Google számára kifejezetten fontos az AI felelős kialakítása, és másokat is erre ösztönöz. A 2018-ban közzétett AI-elveink írják le az elkötelezettségünket a felelős technológiai fejlesztések iránt. A célunk az, hogy úgy hozzuk létre őket, hogy közben a biztonságot, az elszámoltathatóságot és a kiemelkedő tudományos eredményekre érvényes magas standardokat tartjuk szem előtt. A felelős AI az átfogó megközelítésünket jelenti, amely több dimenzióból áll: „tisztesség”, „értelmezhetőség”, „biztonság” és „adatvédelem”. Ezek adják a Google AI-termékek fejlesztésének alapját.

A SAIF a mi keretrendszerünk, amellyel egységesített és átfogó megközelítést tudunk alkalmazni a biztonsági és adatvédelmi megoldásoknak a gépi tanulás által támogatott alkalmazásokba való integrálásakor. Ez összhangban van az AI felelős létrehozására vonatkozó „biztonság” és „adatvédelem” dimenziókkal. A SAIF biztosítja, hogy a gépi tanulás által támogatott alkalmazások fejlesztése felelős módon történik, és figyelembe veszi a folyton fejlődő fenyegetéseket és a változó felhasználói elvárásokat.

Hogyan alkalmazza a Google a SAIF keretrendszert a gyakorlatban?

A Google régóta támogatja a felelős AI-ra és a kiberbiztonságra fókuszáló fejlesztést, és évek óta folyamatosan térképezzük fel az AI-innovációkkal kapcsolatos bevált biztonsági módszereket. A Secure AI Framework alapját a tapasztalataink és az általunk kifejlesztett és megvalósított bevált módszerek adják, és a Google-nak azt a megközelítését tükrözi, hogy a gépi tanulás és a generatív AI által támogatott alkalmazásokat reszponzív, fenntartható és a biztonság és az adatvédelem tekintetében bővíthető módon kell létrehozni. Folytatjuk a SAIF fejlesztését és alakítását, hogy kezeljük az új kockázatokat, a változó környezeteket és az AI területén megvalósuló előrelépéseket.

Hogyan lehet megvalósítani a keretrendszert?

Olvassa el a SAIF keretrendszer megvalósításáról szóló rövid útmutatónkat:

  • 1. lépés – A használat feltérképezése
    • Annak feltérképezése, hogy az AI milyen konkrét üzleti problémát fog megoldani, és hogy a modell betanításához milyen adatokra van szükség, segít kialakítani a SAIF részeként megvalósítandó szabályzatokat, protokollokat és vezérlőket.
  • 2. lépés – A csapat összeállítása
    • Az AI-rendszerek kifejlesztése és telepítése – a hagyományos rendszerekhez hasonlóan – több területet átfogó folyamat.
    • Az AI-rendszerek általában összetettek és nehezen átláthatók, számos mozgó alkatrésszel rendelkeznek, nagy mennyiségű adatra támaszkodnak, erőforrás-igényesek, felhasználhatók véleményeken alapuló döntések meghozatalára, és olyan újszerű tartalmakat képesek generálni, amelyek sértők vagy károsak lehetnek, illetve felerősíthetik a sztereotípiákat és a társadalmi diszkriminációt.
    • A megfelelő keresztfunkcionális csapat összeállításával gondoskodhat arról, hogy a biztonsági, adatvédelmi, kockázati és megfelelőségi szempontok a kezdetektől figyelembe legyenek véve.
  • 3. lépés – Szint meghatározása AI-alapelvekkel
    • Ahogy a csapatok elkezdik kiértékelni az üzleti felhasználást, a különféle folyton változó és szerteágazó kockázatokat és biztonsági vezérlőket, rendkívül fontos, hogy a részt vevő felek tisztában legyenek az AI-modell fejlesztési életciklusának alapjaival, valamint a modellmetodológiák tervezésével és logikájával, beleértve a képességeket, az erényeket és a korlátokat is.
  • 4. lépés – A SAIF hat alapvető elemének alkalmazása (ezek listáját fent találja)
    • Ezeket az elemeket nem a felsorolás sorrendjében kell alkalmazni.

Hol találhatok további információkat a SAIF-ról, és hogyan alkalmazhatom ezt a keretrendszert a vállalkozásomban vagy szervezetemben?

Nézzen vissza később! A Google továbbra is létrehoz és megoszt majd a Secure AI Frameworkkel kapcsolatos forrásokat, útmutatókat és eszközöket, valamint az AI-t kiaknázó alkalmazásfejlesztésre vonatkozó bevált módszereket.

Miért támogatjuk a mindenki számára nyitott, biztonságos AI-jal foglalkozó közösséget?

Az elsők között voltunk, akik megfogalmaztak alapelveket az Al-jal kapcsolatban, és létrehoztuk a felelős Al-ra vonatkozó szabványokat. Ezek vezérelnek minket a biztonságos termékek fejlesztése során. Támogattunk – és kifejlesztettünk – ágazati keretrendszereket, hogy magasabbra tegyük a lécet a biztonság terén, emellett rájöttünk, hogy egy jó közösség elengedhetetlen ahhoz, hogy ez a munka hosszú távon is sikeres legyen. Emiatt nagyon fontos számunkra, hogy egy mindenki számára nyitott SAIF-közösséget alakítsunk ki.

Kiberbiztonsági fejlesztések

Ismerje meg, hogyan őrizzük meg több felhasználó biztonságát online, mint bármely más szolgáltató a világon.