מעבר לתוכן

סמל של מגן כחול עם האות G בצבע לבן.

‫Secure AI Framework‏ (SAIF) של Google

ל-AI, ובמיוחד ל-AI גנרטיבי, יש פוטנציאל עצום. החדשנות לא נפסקת לרגע, והתעשייה צריכה סטנדרטים ליצירה ולפריסה של מערכות AI באופן אחראי. זו הסיבה שהשקנו את Secure AI Framework ‏ (SAIF) – מסגרת רעיונית לאבטחה של מערכות AI.

‫6 יסודות הליבה של SAIF

‫SAIF היא מסגרת רעיונית שנועדה לטפל בנושאים מרכזיים שמעסיקים את מומחי האבטחה, למשל: פרטיות, אבטחה וניהול סיכונים במודלים של AI או למידת מכונה. כשמטמיעים מודלים של AI, אפשר להיעזר במסגרת הרעיונית הזו כדי לוודא שהם מאובטחים כבר מההתחלה.
  • הרחבה של תשתיות אבטחה יעילות לסביבה העסקית של AI

  • שילוב AI בתהליכי הטיפול באיומים בארגון, משלב הזיהוי ועד שלב התגובה

  • אוטומציה של אמצעי הגנה במטרה לעמוד בקצב של איומים קיימים וחדשים

  • יצירת איזון והרמוניה בין אמצעי הבקרה ברמת הפלטפורמה כדי לשמור על אבטחה עקבית בכל חלקי הארגון

  • מסגלים את אמצעי הבקרה כדי לעדכן את דרכי ההתמודדות עם איומים וליצור לולאות משוב מהירות יותר לפריסת AI

  • הצגת הסיכונים למערכות AI בהקשר של התהליכים העסקיים שסובבים אותן

סביבה עסקית בטוחה יותר

אנחנו שמחים לשתף את השלבים הראשונים במסע שלנו ליצירת סביבה עסקית של SAIF אצל רשויות ממשלתיות, עסקים וארגונים, במטרה לקדם מסגרת רעיונית לפריסת AI בצורה מאובטחת שמתאימה לכולם.
תמונה של רשת ורודה ששולחת הנחיות למסך.

חדש – SAIF.Google: אבטחת AI מתחילה כאן

‫SAIF.Google הוא מרכז של מקורות מידע שבעזרתו אנשי מקצוע שעוסקים באבטחה יכולים להבין יותר טוב את ההתפתחויות בתחום בכל מה שקשור ל-AI. ריכזנו בו מידע על מגוון סיכוני אבטחה ואמצעי בקרה שקשורים ל-AI, כולל "דוח להערכה עצמית של סיכונים". הכול במטרה לעזור לאנשי המקצוע, להבהיר להם עם אילו סיכונים הם יצטרכו להתמודד ולהסביר איך משתמשים ב-SAIF בארגונים. כל זה גם ילמד אותם להתמודד עם הצורך הקריטי לפתח ולפרוס בארגונים מערכות AI מאובטחות בתחום שמתפתח במהירות.
תמונה של כוכבים שבמרכזה מגן כחול עם האות G בצבע לבן, שמוקף בסמלים של מבנה, מנעול, פרופיל, גלובוס ומסמך.

משלבים את SAIF ברשויות ממשלתיות ובארגונים

אנחנו משתפים פעולה עם רשויות ממשלתיות וארגונים במטרה לצמצם את סיכוני האבטחה ב-AI. העבודה שלנו עם הגורמים האחראים לקביעת מדיניות ועם ארגוני התקנים, כמו NIST, תורמת לפיתוח מסגרות רגולטוריות. הדגשנו לאחרונה את התפקיד של SAIF באבטחה של מערכות AI, תוך התאמה למחויבויות של הבית הלבן בנוגע ל-AI.
עיגול עם סמלי לוגו של חברות טכנולוגיה בתוכו.

‫Coalition for Secure AI: מפיצים את SAIF בעזרת שותפים מהתחום

כדי לקדם את הנושא ולגייס תמיכה של עוד חברות הקמנו ארגון בשם Coalition for Secure AI ‏(CoSAI). החברות המייסדות של הארגון, ביניהן Anthropic‏, Cisco‏, GenLab‏, IBM‏, Intel‏, Nvidia ו-PayPal מחפשות דרכים להתמודד עם האתגרים הקריטיים שעולים בדרך למטרה שהצבנו לעצמנו – להטמיע מערכות AI מאובטחות.

מקורות מידע נוספים

שאלות נפוצות
על SAIF

איך Google משתמשת ב-SAIF במציאות?

‫Google מובילה כבר הרבה שנים בפיתוח אבטחת סייבר ו-AI בצורה אחראית, ובהטמעה של שיטות מומלצות בנושאי אבטחה בטכנולוגיות AI חדשניות. זיקקנו את Secure AI Framework מתוך הניסיון שלנו והשיטות המומלצות שפיתחנו והטמענו. המסגרת הרעיונית הזאת משקפת את הגישה של Google לפיתוח אפליקציות שמבוססות על למידת מכונה ועל AI גנרטיבי, וכוללת אמצעים רספונסיביים, עמידים וניתנים להרחבה להגנה על האבטחה ועל הפרטיות. נמשיך לפתח את SAIF במטרה להתמודד עם סיכונים חדשים, סביבות משתנות ופיתוחים בתחום ה-AI.

איך בעלי המקצוע בתחום יכולים להטמיע את המסגרת הרעיונית?

כדאי לעיין במדריך הקצר שלנו להטמעת SAIF:

  • שלב 1 – מבינים מה השימוש המיועד
    • כדי לקבוע באילו פרוטוקולים, מדיניות ואמצעי בקרה צריך להשתמש במסגרת SAIF, חשוב להבין מה הבעיה העסקית הספציפית שרוצים לפתור באמצעות ה-AI ואילו נתונים נדרשים לאימון המודל.
  • שלב 2 – מרכיבים את הצוות
    • הפיתוח והפריסה של מערכות AI הם פעולות רב-תחומיות, ממש כמו במערכות מסורתיות.
    • בדרך כלל, מערכות AI הן מורכבות ומעורפלות, יש בהן מספר גדול של חלקים משתנים, הן מתבססות על כמויות גדולות של נתונים, הן צורכות הרבה משאבים, אפשר להשתמש בהן להטמעה של החלטות שמבוססות על שיפוט והן יכולות ליצור תוכן חדש שעלול להיות פוגעני או מזיק או שעלול להיתפס כסטריאוטיפ או הטיה חברתית.
    • מקימים צוות רב-תחומי מתאים כדי לוודא ששיקולי אבטחה, פרטיות, סיכון ותאימות נכללים מההתחלה.
  • שלב 3 – קובעים את הבסיס עם מדריך למתחילים בנושא AI

    • בזמן שהצוותים מתחילים לבחון את השימוש העסקי ב-AI ואת המורכבויות, אמצעי הבקרה על האבטחה והסיכונים השונים והמתפתחים שרלוונטיים למצב – חשוב מאוד שהגורמים המעורבים יבינו את היסודות של סבבי הפיתוח של מודל ה-AI , ואת המבנה והלוגיקה של המתודולוגיות במודל, כולל היכולות, היתרונות והמגבלות.
  • שלב 4 – מטמיעים את ‫6 יסודות הליבה של SAIF

    • אין צורך להטמיע את היסודות לפי סדר כרונולוגי.

איפה אפשר למצוא מידע נוסף על SAIF ועל הדרכים להטמיע את המסגרת הרעיונית הזו בעסק, בארגון או בישויות אחרות?

כדאי להמשיך להתעדכן! ‫Google תמשיך לפתח ולשתף משאבים, מקורות מידע, הנחיות וכלים שקשורים ל-Secure AI Framework, וגם שיטות מומלצות אחרות לגבי פיתוח של פתרונות מבוססי-AI.

למה אנחנו תומכים בקהילת AI מאובטחת לכולם

‫Google היא אחת מהחברות הראשונות שהגדירו עקרונות AI באופן ברור, והיא קבעה את הסטנדרטים לגבי AI אחראי – זה מה שמנחה אותנו בהיבטי הבטיחות בפיתוח מוצרים. תמכנו ביצירת מסגרות רעיוניות לתעשייה וגם פיתחנו אותן בעצמנו במטרה להעלות את רף האבטחה, וגילינו שיצירת קהילה לקידום הפעילות הזו היא הכרחית להצלחה בטווח הארוך. זו הסיבה שאנחנו שמחים ליצור קהילת SAIF לכולם.