Secure AI Framework של Google
(SAIF)
ל-AI יש פוטנציאל עצום, ובמיוחד ל-AI גנרטיבי. החדשנות מתפתחת כל הזמן, ונדרשים לתעשייה סטנדרטים ליצירה ולפריסה של מערכות AI באופן אחראי. זו הסיבה שהשקנו את Secure AI Framework (SAIF) – מסגרת רעיונית לאבטחה של מערכות AI.
SAIF היא מסגרת רעיונית שנועדה לטפל בנושאים מרכזיים שמעסיקים את מומחי האבטחה, למשל: פרטיות, אבטחה וניהול סיכונים במודלים של AI או למידת מכונה. כשמטמיעים מודלים של AI, אפשר להיעזר במסגרת הרעיונית הזו כדי לוודא שהם מאובטחים כברירת מחדל.
בטוחה יותר
אנחנו שמחים לשתף את השלבים הראשונים במסע שלנו ליצירת סביבה עסקית של SAIF אצל רשויות ממשלתיות, עסקים וארגונים, במטרה לקדם מסגרת רעיונית לפריסת AI בצורה מאובטחת שמתאימה לכולם.
משלבים את SAIF ברשויות ממשלתיות ובארגונים
אנחנו משתפים פעולה עם רשויות ממשלתיות וארגונים במטרה לצמצם את סיכוני האבטחה ב-AI. העבודה שלנו עם הגורמים האחראים לקביעת מדיניות ועם ארגוני התקנים, כמו NIST, תורמת לפיתוח מסגרות רגולטוריות. הדגשנו לאחרונה את התפקיד של SAIF באבטחה של מערכות AI, תוך התאמה למחויבויות של הבית הלבן בנוגע ל-AI.
מרחיבים את SAIF בעזרת שותפים מהתעשייה
אנחנו מקדמים תמיכה ב-SAIF בקרב הלקוחות והשותפים בתעשייה, עורכים סדנאות בנושא SAIF עם מומחים ומפרסמים שיטות מומלצות לאבטחת AI. שיתפנו פעולה עם Deloitte בכתיבת סקירה מפורטת על הדרכים שבהן ארגונים יכולים להשתמש ב-AI כדי להתמודד עם אתגרי אבטחה.
מה הקשר בין SAIF לבין אתיקה של בינה מלאכותית (AI)?
איך Google מיישמת את SAIF בפועל?
איך בעלי המקצוע בתחום יכולים להטמיע את המסגרת הרעיונית?
איפה אפשר למצוא מידע נוסף על SAIF ועל הדרכים ליישם את המסגרת הרעיונית הזו בעסק, בארגון או בישויות אחרות?
Google היא אחת מהחברות הראשונות שהגדירו עקרונות AI באופן ברור, והיא קבעה את הסטנדרטים לגבי AI אחראי. זה מה שמנחה אותנו בהיבטי הבטיחות של פיתוח המוצר. תמכנו ביצירת מסגרות רעיוניות לתעשייה וגם פיתחנו אותן בעצמנו במטרה להעלות את רף האבטחה, וגילינו שיצירת קהילה לקידום הפעילות הזו היא הכרחית להצלחה בטווח הארוך. זו הסיבה שאנחנו שמחים ליצור קהילת SAIF לכולם.