Secure AI Framework (SAIF) od Google
Potencjał AI, a w szczególności generatywnej AI, jest olbrzymi. Wraz z rozwojem innowacyjnych rozwiązań branża potrzebuje standardów bezpieczeństwa w obszarze odpowiedzialnego tworzenia i wdrażania AI. Z tego względu przedstawiamy Secure AI Framework (SAIF) – koncepcyjną platformę dla bezpiecznych systemów AI.
Platforma SAIF została zaprojektowana w celu rozwiązania zgłaszanych przez specjalistów w zakresie bezpieczeństwa najważniejszych problemów, takich jak zarządzanie ryzykiem modeli sztucznej inteligencji / systemów uczących się (AI/ML), bezpieczeństwo oraz prywatność, co pomaga zapewnić, że wdrożone modele AI są domyślnie bezpieczne.
Z przyjemnością przedstawiamy pierwsze kroki naszej podróży ku tworzeniu i rozwijaniu ekosystemu SAIF w instytucjach państwowych, firmach i innych organizacjach. Rozwijamy platformę umożliwiającą bezpieczne wdrożenie AI, które sprawdzi się w każdym przypadku.
Wprowadzanie SAIF w instytucjach państwowych i organizacjach
Współpracujemy z instytucjami państwowymi i organizacjami, aby pomóc w zmniejszeniu ryzyka związanego z bezpieczeństwem AI. Nasza współpraca z decydentami i organizacjami standaryzacyjnymi takimi jak NIST przyczynia się do rozwoju ram prawnych. Ostatnio podkreśliliśmy rolę SAIF w zabezpieczaniu systemów sztucznej inteligencji zgodnie z wytycznymi Białego Domu dotyczącymi AI.
Dalszy rozwój SAIF z sojusznikami w branży
Współpracujemy z klientami i partnerami, aby wspierać wysiłki w zakresie wdrażania SAIF, organizujemy warsztaty dla podmiotów, które chcą wdrożyć tę platformę, oraz publikujemy sprawdzone metody w zakresie bezpieczeństwa AI. Nawiązaliśmy współpracę z Deloitte w celu wspólnego opracowania dokumentu, w którym opisujemy, jak organizacje mogą wykorzystać sztuczną inteligencję, aby rozwiązywać problemy związane z bezpieczeństwem.
-
Zwiększenie bezpieczeństwa AI dzięki stosowaniu podejścia Red Team
Dowiedz się, jak zespół ekspertów hakuje nasze systemy sztucznej inteligencji, wykorzystując najnowocześniejsze taktyki, aby zwiększyć poziom bezpieczeństwa systemów AI. Zapoznaj się z kluczowymi informacjami i wnioskami, którymi dzielimy się w najnowszym raporcie.
-
Android: wytyczne dotyczące bezpiecznego programowania
Zabezpiecz organizację dzięki generowanym w czasie rzeczywistym alertom o lukach w zabezpieczeniach w systemie Android oraz przestrzegaj wytycznych dotyczących bezpiecznego programowania kodu związanego z systemami uczącymi się.
Jaka jest zależność pomiędzy SAIF a odpowiedzialną AI?
Uważamy, że tworzenie AI w odpowiedzialny sposób jest naszym obowiązkiem. Chcemy zapewnić taką możliwość również innym. Opublikowane przez nas w 2018 roku zasady dotyczące sztucznej inteligencji opisują nasze zobowiązanie do odpowiedzialnego rozwoju technologii w sposób, który za priorytet obiera bezpieczeństwo, umożliwia rozliczalność i spełnia wysokie standardy doskonałości naukowej. Odpowiedzialna AI jest nadrzędnym podejściem składającym się z wielu wymiarów, takich jak „obiektywność”, „zrozumiałość”, „bezpieczeństwo” i „prywatność”, które stanowią wytyczne do rozwoju wszystkich usług Google opartych na sztucznej inteligencji.
SAIF to nasza platforma do tworzenia ustandaryzowanego i całościowego podejścia do integracji zabezpieczeń i środków ochrony prywatności w aplikacjach opartych na systemach uczących się. Jest ona zgodna z wymiarami „bezpieczeństwo” i „prywatność” w odpowiedzialnym tworzeniu systemów AI. Celem SAIF jest dbanie o odpowiedzialne programowanie aplikacji opartych na systemach uczących się, z uwzględnieniem zmieniającej się panoramy zagrożeń i oczekiwań użytkowników.
W jaki sposób Google stosuje SAIF?
Google szczyci się długą historią promowania odpowiedzialnego rozwoju sztucznej inteligencji i cyberbezpieczeństwa. Od wielu lat wprowadzamy sprawdzone metody z zakresu bezpieczeństwa do innowacyjnych rozwiązań w dziedzinie AI. Secure AI Framework jest wynikiem naszego doświadczenia i sprawdzonych metod, które opracowaliśmy i wdrożyliśmy. Platforma odzwierciedla podejście Google do tworzenia aplikacji opartych na systemach uczących się i generatywnej AI, które zapewnia elastyczne, zrównoważone i skalowalne mechanizmy zabezpieczeń oraz ochrony prywatności. Będziemy kontynuować rozwój i tworzenie SAIF w odpowiedzi na nowe zagrożenia, ciągłe zmiany i postępy w obszarze AI.
W jaki sposób można wdrożyć SAIF?
Zapoznaj się z naszym krótkim przewodnikiem na temat wdrażania platformy SAIF:
-
Krok 1. Określ zastosowanie
- Zrozumienie konkretnego problemu do rozwiązania przez AI i dostarczenie danych do trenowania modelu pomoże kształtować zasady, protokoły i metody nadzoru, które należy wdrożyć w ramach SAIF.
-
Krok 2. Zbierz zespół
- Rozwijanie i wdrażanie systemów AI, podobnie jak w przypadku tradycyjnych systemów, wymaga współpracy specjalistów z wielu dziedzin.
- Systemy AI są często złożone i nieprzejrzyste. Posiadają wiele zmiennych, opierają się na dużej ilości danych, są wymagające pod względem zasobów, mogą być wykorzystywane do podejmowania decyzji opartych na osądzie, a także do generowania nowych treści, które mogą okazać się obraźliwe i szkodliwe lub które utrwalają stereotypy i uprzedzenia społeczne.
- Zbuduj odpowiedni zespół interdyscyplinarny, który od podczątku uwzględni kwestie bezpieczeństwa, prywatności, ryzyka i zgodności z przepisami.
-
Krok 3. Przedstaw informacje dotyczące AI
- Gdy zespoły przystępują do określenia zastosowania biznesowego, a także oceny różnorodnych i narastających złożoności, zagrożeń oraz środków bezpieczeństwa, kluczowe znaczenie ma zrozumienie przez zaangażowane strony podstaw cyklu życia rozwoju modelu AI, projektu i logiki metodologii modelu, w tym jego możliwości, zalet i ograniczeń.
-
Krok 4. Zastosuj 6 podstawowych elementów SAIF (wymienionych wyżej)
- Kolejność wdrażania przedstawionych elementów nie jest chronologiczna.
Gdzie znajdę więcej informacji o platformie SAIF i o tym, jak zastosować ją w mojej firmie lub organizacji?
Więcej informacji już wkrótce. Google będzie nadal opracowywać i udostępniać zasoby, wskazówki i narzędzia dotyczące Secure AI Framework wraz z innymi sprawdzonymi metodami w zakresie programowania aplikacji opartych na AI.
Jesteśmy jedną z pierwszych firm, które sformułowały zasady dotyczące sztucznej inteligencji, wyznaczając standardy odpowiedzialnej Al. Stanowią one nasze wytyczne w kwestii bezpieczeństwa przy rozwoju usług. Zaangażowaliśmy się w promowanie i rozwijanie platform branżowych w celu podniesienia standardów bezpieczeństwa. Dzięki temu odkryliśmy, że budowanie społeczności wokół dalszego rozwoju jest kluczowe dla długoterminowego sukcesu. Dlatego z przyjemnością tworzymy społeczność poświęconą SAIF otwartą dla wszystkich.