Secure AI Framework van Google (SAIF)
Het potentieel van AI, vooral van generatieve AI, is enorm. Naarmate innovatie zich doorontwikkelt, heeft de branche beveiligingsnormen nodig om AI op een verantwoorde manier te bouwen en te implementeren. Daarom hebben we het Secure AI Framework (SAIF) geïntroduceerd, een conceptueel framework om AI-systemen te beveiligen.
SAIF is ontwikkeld om de centrale aandachtspunten van beveiligingsprofessionals aan te pakken, zoals risicobeheer, beveiliging en privacy van AI/ML-modellen. Dit framework zorgt er ook voor dat AI-modellen standaard beveiligd zijn wanneer ze worden geïmplementeerd.
Met trots delen we de eerste stappen van ons traject om een SAIF-ecosysteem te bouwen voor overheden, bedrijven en organisaties en een framework te ontwikkelen voor een beveiligde implementatie van AI dat voor iedereen werkt.
De rol van SAIF in overheden en organisaties
We werken samen met overheden en organisaties om beveiligingsrisico's rond AI te beperken. Ons werk met beleidsmakers en instellingen die zich op standaardisatie richten, zoals NIST, draagt bij aan de ontwikkeling van regelgevende frameworks. Onlangs hebben we de rol van SAIF benadrukt in het beveiligen van AI-systemen, in lijn met de AI-toezeggingen van het Witte Huis.
SAIF uitbreiden samen met bondgenoten in de branche
We bevorderen steun voor SAIF van partners en klanten in de branche, door SAIF-workshops te organiseren met mensen uit de praktijk en best practices te publiceren voor de beveiliging van AI. We hebben samengewerkt met Deloitte aan een whitepaper over hoe organisaties AI kunnen gebruiken om beveiligingsuitdagingen aan te pakken.
-
Android: Richtlijnen voor beveiligd ontwikkelen
Beveilig je organisatie met de realtime kwetsbaarheidsmeldingen van Android en volg de richtlijnen voor beveiligd ontwikkelen voor ML-code.
Wat is het verband tussen SAIF en verantwoorde AI?
Google heeft een verplichting om AI op een verantwoorde manier te ontwikkelen en om anderen in staat te stellen hetzelfde te doen. Onze AI-principes, gepubliceerd in 2018, beschrijven ons streven om technologie op verantwoorde wijze te ontwikkelen en op een manier die is gebouwd voor veiligheid, verantwoording mogelijk maakt en de hoge normen van wetenschappelijke uitmuntendheid handhaaft. Verantwoorde AI is onze overkoepelende aanpak en heeft verschillende dimensies, zoals Eerlijkheid, Interpreteerbaarheid, Beveiliging en Privacy. Deze dimensies vormen de leidraad voor alle AI-productontwikkeling van Google.
SAIF is ons framework voor het maken van een gestandaardiseerde en holistische aanpak voor de integratie van beveiligings- en privacymaatregelen in ML-gestuurde apps. Het is afgestemd op de dimensies Beveiliging en Privacy voor verantwoorde AI-ontwikkeling. SAIF zorgt ervoor dat ML-gestuurde apps op een verantwoorde manier worden ontwikkeld, rekening houdend met de steeds veranderende bedreigingen en verwachtingen van gebruikers.
Hoe zet Google SAIF in?
Google ontwikkelt al heel lang AI en cyberbeveiliging. We brengen al jaren best practices op het gebied van beveiliging in kaart bij elke nieuwe AI-innovatie. Ons Secure AI Framework is voortgekomen uit de ervaring en best practices die we hebben ontwikkeld en geïmplementeerd. Het weerspiegelt de aanpak van Google bij de ontwikkeling van ML- en generatieve AI-gestuurde apps met responsieve, duurzame en schaalbare beveiligings- en privacybescherming. We blijven SAIF ontwikkelen en bouwen om nieuwe risico's aan te pakken en om te gaan met de veranderingen en vooruitgang op het gebied van AI.
Hoe kunnen gebruikers het framework implementeren?
Bekijk onze snelle gids voor het implementeren van het SAIF-framework:
-
Stap 1 - Het gebruik begrijpen
- Begrijpen wat het specifieke bedrijfsprobleem is dat AI moet oplossen en welke gegevens nodig zijn om het model te trainen, helpen om het beleid, de protocollen en beheeropties te bepalen die geïmplementeerd moeten worden als onderdeel van SAIF.
-
Stap 2 - Het team samenstellen
- Het ontwikkelen en inzetten van AI-systemen zijn, net als traditionele systemen, multidisciplinaire inspanningen.
- AI-systemen zijn vaak complex en ondoorzichtig, ze bestaan uit een groot aantal componenten, zijn afhankelijk van grote hoeveelheden gegevens, ze vergen veel bronnen en worden mogelijk gebruikt om beslissingen te nemen op basis van beoordelingen, en kunnen nieuwe content genereren die aanstootgevend of schadelijk is of stereotypen en sociale vooroordelen bevestigen.
- Zet het juiste multifunctionele team op om ervoor te zorgen dat vanaf het begin rekening wordt gehouden met beveiliging, privacy, risico's en compliance.
-
Stap 3 - Basiskennis opdoen met een introductie tot AI
- Wanneer teams beginnen met de evaluatie van het zakelijke gebruik, de verschillende en evoluerende complexiteiten en de risico's en beveiligingsfuncties die van toepassing zijn, is het van cruciaal belang dat de betrokken partijen een goed begrip hebben van de basisprincipes van de levenscyclus van AI-modelontwikkeling, het ontwerp en de logica van de modelmethodologieën, inclusief mogelijkheden, verdiensten en beperkingen.
-
Stap 4 - De 6 kernelementen van SAIF toepassen (hierboven vermeld)
- Deze elementen hoeven niet in chronologische volgorde toegepast te worden.
Waar kan ik meer informatie vinden over SAIF en hoe kan ik het toepassen op mijn bedrijf of entiteit?
Blijf op de hoogte! Google blijft de bronnen, richtlijnen en tools van het Secure AI Framework ontwikkelen en delen, samen met andere best practices voor de ontwikkeling van AI-apps.
Als een van de eerste bedrijven die Al-principes formuleerden, hebben we de norm gezet voor verantwoorde Al. Met deze norm ontwikkelen we onze producten met het oog op veiligheid. We hebben gepleit voor brancheframeworks, en deze ontwikkeld, voor een betere beveiliging. Bovendien hebben we geleerd dat een community bouwen om samen te werken essentieel is voor succes op lange termijn. Daarom zijn we zo enthousiast om een SAIF-community op te zetten voor iedereen.