Secure AI Framework
(SAIF) od Google

Potencjał AI, a w szczególności generatywnej AI, jest olbrzymi. Wraz z ᠎rozwojem innowacyjnych rozwiązań branża potrzebuje standardów bezpieczeństwa w obszarze odpowiedzialnego tworzenia i wdrażania AI. Z tego względu przedstawiamy Secure AI Framework (SAIF) – koncepcyjną platformę dla bezpiecznych systemów AI.

6 podstawowych elementów SAIF

Platforma SAIF została zaprojektowana w celu rozwiązania zgłaszanych przez specjalistów w zakresie bezpieczeństwa najważniejszych problemów, takich jak zarządzanie ryzykiem modeli sztucznej inteligencji / systemów uczących się (AI/ML), bezpieczeństwo oraz prywatność, co pomaga zapewnić, że wdrożone modele AI są domyślnie bezpieczne.

Rozszerzenie silnych mechanizmów zabezpieczających na ekosystem AI
Rozszerzenie wykrywania i reagowania przez włączenie AI do krajobrazu zagrożeń, przed którymi stoi organizacja
Automatyzacja obrony w celu dotrzymania kroku istniejącym i nowym zagrożeniom
Harmonizacja ustawień na poziomie platformy w celu zapewnienia spójności zabezpieczeń w całej organizacji
Dostosowanie ustawień pod kątem skorygowania działania środków ograniczających ryzyko i skrócenia pętli informacji zwrotnych przy wdrażaniu AI
Osadzenie ryzyka dotyczącego systemów AI w kontekście w stosowanych procesach biznesowych
Pobierz PDF
Większe bezpieczeństwo
ekosystemu

Z przyjemnością przedstawiamy pierwsze kroki naszej podróży ku tworzeniu i rozwijaniu ekosystemu SAIF w instytucjach państwowych, firmach i innych organizacjach. Rozwijamy platformę umożliwiającą bezpieczne wdrożenie AI, które sprawdzi się w każdym przypadku.

Wprowadzanie SAIF w instytucjach państwowych i organizacjach

Współpracujemy z instytucjami państwowymi i organizacjami, aby pomóc w zmniejszeniu ryzyka związanego z bezpieczeństwem AI. Nasza współpraca z decydentami i organizacjami standaryzacyjnymi takimi jak NIST przyczynia się do rozwoju ram prawnych. Ostatnio podkreśliliśmy rolę SAIF w zabezpieczaniu systemów sztucznej inteligencji zgodnie z wytycznymi Białego Domu dotyczącymi AI.

Dalszy rozwój SAIF z sojusznikami w branży

Współpracujemy z klientami i partnerami, aby wspierać wysiłki w zakresie wdrażania SAIF, organizujemy warsztaty dla podmiotów, które chcą wdrożyć tę platformę, oraz publikujemy sprawdzone metody w zakresie bezpieczeństwa AI. Nawiązaliśmy współpracę z Deloitte w celu wspólnego opracowania dokumentu, w którym opisujemy, jak organizacje mogą wykorzystać sztuczną inteligencję, aby rozwiązywać problemy związane z bezpieczeństwem.

Dodatkowe zasoby
Często zadawane pytania na temat SAIF

Jaka jest zależność pomiędzy SAIF a odpowiedzialną AI?

Uważamy, że tworzenie AI w odpowiedzialny sposób jest naszym obowiązkiem. Chcemy zapewnić taką możliwość również innym. Opublikowane przez nas w 2018 roku zasady dotyczące sztucznej inteligencji opisują nasze zobowiązanie do odpowiedzialnego rozwoju technologii w sposób, który za priorytet obiera bezpieczeństwo, umożliwia rozliczalność i spełnia wysokie standardy doskonałości naukowej. Odpowiedzialna AI jest nadrzędnym podejściem składającym się z wielu wymiarów, takich jak „obiektywność”, „zrozumiałość”, „bezpieczeństwo” i „prywatność”, które stanowią wytyczne do rozwoju wszystkich usług Google opartych na sztucznej inteligencji.

SAIF to nasza platforma do tworzenia ustandaryzowanego i całościowego podejścia do integracji zabezpieczeń i środków ochrony prywatności w aplikacjach opartych na systemach uczących się. Jest ona zgodna z wymiarami „bezpieczeństwo” i „prywatność” w odpowiedzialnym tworzeniu systemów AI. Celem SAIF jest dbanie o odpowiedzialne programowanie aplikacji opartych na systemach uczących się, z uwzględnieniem zmieniającej się panoramy zagrożeń i oczekiwań użytkowników.

W jaki sposób Google stosuje SAIF?

Google szczyci się długą historią promowania odpowiedzialnego rozwoju sztucznej inteligencji i cyberbezpieczeństwa. Od wielu lat wprowadzamy sprawdzone metody z zakresu bezpieczeństwa do innowacyjnych rozwiązań w dziedzinie AI. Secure AI Framework jest wynikiem naszego doświadczenia i sprawdzonych metod, które opracowaliśmy i wdrożyliśmy. Platforma odzwierciedla podejście Google do tworzenia aplikacji opartych na systemach uczących się i generatywnej AI, które zapewnia elastyczne, zrównoważone i skalowalne mechanizmy zabezpieczeń oraz ochrony prywatności. Będziemy kontynuować rozwój i tworzenie SAIF w odpowiedzi na nowe zagrożenia, ciągłe zmiany i postępy w obszarze AI.

W jaki sposób można wdrożyć SAIF?

Zapoznaj się z naszym krótkim przewodnikiem na temat wdrażania platformy SAIF:

  • Krok 1. Określ zastosowanie
    • Zrozumienie konkretnego problemu do rozwiązania przez AI i dostarczenie danych do trenowania modelu pomoże kształtować zasady, protokoły i metody nadzoru, które należy wdrożyć w ramach SAIF.
  • Krok 2. Zbierz zespół
    • Rozwijanie i wdrażanie systemów AI, podobnie jak w przypadku tradycyjnych systemów, wymaga współpracy specjalistów z wielu dziedzin.
    • Systemy AI są często złożone i nieprzejrzyste. Posiadają wiele zmiennych, opierają się na dużej ilości danych, są wymagające pod względem zasobów, mogą być wykorzystywane do podejmowania decyzji opartych na osądzie, a także do generowania nowych treści, które mogą okazać się obraźliwe i szkodliwe lub które utrwalają stereotypy i uprzedzenia społeczne.
    • Zbuduj odpowiedni zespół interdyscyplinarny, który od podczątku uwzględni kwestie bezpieczeństwa, prywatności, ryzyka i zgodności z przepisami.
  • Krok 3. Przedstaw informacje dotyczące AI
    • Gdy zespoły przystępują do określenia zastosowania biznesowego, a także oceny różnorodnych i narastających złożoności, zagrożeń oraz środków bezpieczeństwa, kluczowe znaczenie ma zrozumienie przez zaangażowane strony podstaw cyklu życia rozwoju modelu AI, projektu i logiki metodologii modelu, w tym jego możliwości, zalet i ograniczeń.
  • Krok 4. Zastosuj 6 podstawowych elementów SAIF (wymienionych wyżej)
    • Kolejność wdrażania przedstawionych elementów nie jest chronologiczna.

Gdzie znajdę więcej informacji o platformie SAIF i o tym, jak zastosować ją w mojej firmie lub organizacji?

Więcej informacji już wkrótce. Google będzie nadal opracowywać i udostępniać zasoby, wskazówki i narzędzia dotyczące Secure AI Framework wraz z innymi sprawdzonymi metodami w zakresie programowania aplikacji opartych na AI.

Dlaczego wspieramy społeczność zajmującą się bezpieczną AI

Jesteśmy jedną z pierwszych firm, które sformułowały zasady dotyczące sztucznej inteligencji, wyznaczając standardy odpowiedzialnej Al. Stanowią one nasze wytyczne w kwestii bezpieczeństwa przy rozwoju usług. Zaangażowaliśmy się w promowanie i rozwijanie platform branżowych w celu podniesienia standardów bezpieczeństwa. Dzięki temu odkryliśmy, że budowanie społeczności wokół dalszego rozwoju jest kluczowe dla długoterminowego sukcesu. Dlatego z przyjemnością tworzymy społeczność poświęconą SAIF otwartą dla wszystkich.

Innowacje w zakresie cyberbezpieczeństwa

Dowiedz się, w jaki sposób chronimy więcej osób online niż ktokolwiek inny.