NCMEC, Google וטכנולוגיית גיבוב תמונות
המרכז הלאומי לילדים נעדרים ונפגעי ניצול בארצות הברית (NCMEC) מקבל מדי שנה מיליוני דיווחים על תוכן ויזואלי של התעללות מינית בילדים (CSAM) שמופץ באינטרנט. מישל דלון, סגנית נשיאה בכירה וסמנכ"ל התפעול הראשית של מרכז NCMEC, מספרת על ההתפתחות של הארגון, על ההתמודדות של חברות הטכנולוגיה עם CSAM ועל התרומה של Hash Matching API של Google.
את יכולה לספר לנו על מרכז NCMEC ועל התפקיד שלך בארגון?
אני עובדת ב-NCMEC כבר יותר מ-20 שנה, אז ראיתי במו עיניי גם את ההתפתחות של הארגון, וגם את השינויים שחלו באתגרים ובאיומים על שלום הילדים שלנו. התחלתי את הקריירה שלי כאן כאנליסטית של הקו החם שאנחנו מפעילים, CyberTipline.
המוקד הוקם והושק בשנת 1998, כדי לאפשר לציבור לדווח על מקרים פוטנציאליים של ניצול ילדים. באותה תקופה קיבלנו דיווחים מהורים שחששו שאדם מבוגר משוחח עם הילדים שלהם בצורה לא הולמת באינטרנט, ומאנשים שנתקלו באתרים עם תוכן ויזואלי של התעללות מינית בילדים (CSAM). בהמשך נחקק בארה"ב חוק פדרלי שחייב חברות טכנולוגיה אמריקאיות לדווח למוקד שלנו על כל חשד לתוכן CSAM במערכות שלהן.
בתחילת הדרך קיבלנו בסביבות 100 דיווחים בשבוע על ניצול ילדים. את הדיווח הראשון מחברת טכנולוגיה קיבלנו בשנת 2001. אם נקפוץ רגע 20 שנה קדימה, כיום אנחנו מקבלים בערך 70,000 דיווחים חדשים מדי יום. חלק מהדיווחים מגיעים מאנשים פרטיים, אבל רובם נשלחים מחברות הטכנולוגיה.
איך מרכז NCMEC עוזר לחברות מקוונות להילחם ב-CSAM?
החוק לא מחייב את החברות האלה להילחם בתופעה באופן יזום. אבל אם הן מזהות תוכן שמוגדר כ-CSAM או מגלות שהוא קיים במערכת שלהן, הן חייבות לדווח על זה. בסופו של דבר, זה מה שגרם לעלייה במספר הדיווחים ל-CyberTipline לאורך השנים. אבל בחמש השנים האחרונות חל זינוק משמעותי מאוד. העלייה הדרמטית הזו נובעת מהמאמצים שחברות טכנולוגיה רבות משקיעות כדי לזהות, להסיר ולדווח על CSAM באופן יזום, אפילו שזה לא נדרש מהן.
אחת התוכניות המובילות של המרכז שלנו היא פלטפורמות לשיתוף ערכי גיבוב (hash), אחת לחברות מסחריות ואחת לעמותות. באמצעות המידע שנאסף בפלטפורמה לעמותות, NCMEC מספקת לחברות טכנולוגיה שמעוניינות בכך יותר מחמישה מיליון ערכי גיבוב של תוכן CSAM שאומת וקיבל אישור משלושה מקורות שונים. כך אנחנו עוזרים לחברות הטכנולוגיה למנוע הפצה של תוכן כזה ברשתות שלהן. חברות גדולות רבות, כולל Google, נעזרות ברשימה הזו ונוקטות בצעדים יזומים כדי להסיר CSAM מהפלטפורמות שלהן. למעשה, הפלטפורמה שלנו מאפשרת לעמותות שונות שעובדות למען ילדים להעביר את המידע שיש להן לחברות הטכנולוגיה השונות דרך צינור אחד מרכזי.
וכאמור, יש לנו גם פלטפורמה דומה שבה חברות נבחרות יכולות לשתף זו את זו בערכי הגיבוב של תוכן מהסוג הזה. המשימה שלנו היא שלכל חברה שרוצה ויכולה לזהות באופן יזום את התכנים האלה יהיו את כל הכלים שהיא צריכה, ושהחברות יוכלו לשתף ביניהן את ערכי הגיבוב הרלוונטיים. Google היא התורמת הגדולה ביותר לפלטפורמה הזו, ובערך 74% מכלל הגיבובים ברשימה מגיעים ממנה.
בגלל היקף הדיווחים שאנחנו מקבלים היום, אנחנו נתקלים כמובן בהרבה תמונות זהות שמדווחות כמה פעמים. זה הגיוני, כי החברות משתמשות בערכי הגיבוב כדי לזהות חומרים מוכרים. אבל ככל שיש יותר חומרים מוכרים, ל-NCMEC חשוב יותר להיות מסוגלת לזהות תכנים חדשים שנוצרו ושותפו באינטרנט.
ממשק Hash Matching API של Google עוזר ל-NCMEC לתעדף את הדיווחים שמתקבלים במוקד CyberTipline. את יכולה לספר לנו איך הפרויקט הזה התחיל?
ההצלחה של הפלטפורמות לשיתוף ערכי גיבוב הולידה אתגר חדש לגמרי: כמות עצומה של נתונים. לעמותה כמו NCMEC אין את כוח המחשוב שנדרש כדי להתמודד עם הכמות הזו. לכן שמחנו כל כך לקבל את העזרה של Google בפיתוח הכלי Hash Matching API.
בשנת 2020 התקבלו 21 מיליון דיווחים ב-CyberTipline, אבל בכל אחד מהדיווחים האלה יכולים להיות כמה תמונות וסרטונים. ב-21 מיליון הדיווחים האלה היו למעשה כמעט 70 מיליון תמונות וסרטונים של התעללות מינית בילדים. בתוך הנפח העצום הזה יש כמובן כפילויות, וב-NCMEC אנחנו יודעים לזהות בקלות התאמות מדויקות. אבל הרבה יותר קשה לזהות דמיון ויזואלי בזמן אמת במאגר נתונים בסדר גודל כזה, וזה בדיוק מה שאנחנו צריכים לעשות כדי למצוא תמונות שלא נראו בעבר ולתת להן קדימות. היכולת הזאת חשובה במיוחד כשאנחנו מנסים לזהות ילדים שעוברים התעללות מינית שעדיין נמשכת.
מה הייתה התרומה של ממשק Hash Matching API ל-NCMEC?
יש לנו תפקיד חשוב מאוד: לקחת את המידע הקריטי הזה ולהעביר אותו לרשויות אכיפת החוק כמה שיותר מהר. הכלי הזה מאפשר לנו לנצל בצורה מיטבית את הדיווחים ל-CyberTipline, וזה יתרון אדיר.
לפי תוכנית העבודה שלנו, אנחנו צריכים לבדוק כל תמונה וסרטון של התעללות מינית בילדים ולתייג אותם. למשל, "זה CSAM" או "זה לא CSAM", או "קשה לזהות את הגיל של הילד או האדם". אבל עם 70 מיליון קבצים שהתקבלו רק בשנה שעברה, ברור שאי אפשר לתייג את כולם. באמצעות ממשק ה-API אנחנו יכולים להשוות בין הקבצים. כשאנחנו מתייגים קובץ אחד, ה-API מאפשר לנו לזהות את כל הקבצים שדומים לו מבחינה ויזואלית, ואנחנו יכולים לתייג אותם בהתאם בזמן אמת. כתוצאה מכך, הצלחנו לתייג יותר מ-26 מיליון תמונות.
בזכות התיוג הזה אנחנו שולחים דוחות אינפורמטיביים יותר לרשויות אכיפת החוק, שיכולות לתת קדימות לדיווחים הדחופים. הוא גם עוזר לנו לזהות אילו תמונות עדיין לא נראו בעבר. בתמונות האלה לרוב מופיעים ילד או ילדה שעוברים התעללות מינית באיזשהו מקום בעולם. ואם כמו בפתגם אנחנו מחפשים מחט בערימת שחת, המחט היא ילד או ילדה שצריך להציל. הכלי של Google מאפשר לנו למקד את המאמצים שלנו בתמונות שמופיעים בהן ילדים שזקוקים לעזרה מיידית.
איך זה השפיע על הרווחה של הבודקים האנושיים ב-NCMEC שמטפלים בדיווחים מ-CyberTipline ומנתחים תוכן CSAM?
הכלי לזיהוי CSAM צמצם את הצורך של הצוות שלנו להסתכל על אותן תמונות שוב ושוב. יש תמונות של התעללות מינית בילדים שצולמו כל כך מזמן, שהילדים האלה הם כבר אנשים בוגרים. אבל התמונות האלה נשארות באינטרנט לתמיד, והן גורמות לקורבנות להרגיש שהפגיעה בהם ממשיכה. היכולת לתייג את התמונות מאפשרת לצוות שלנו להתמקד בילדים שעברו התעללות מינית בזמן האחרון, ובמקביל לצמצם את החשיפה של העובדים לחומרים עצמם.
זאת המשימה של הצוות שלנו – לעזור לילדים האלה. מבחינתנו, הכלי הזה היה פורץ דרך כי הוא אפשר לאנשי הצוות לשמור על עצמם ולא להיחשף שוב ושוב לאותו תוכן מזיק.
איך העבודה שלכם עוזרת לחברות הטכנולוגיה להילחם בתוכן מהסוג הזה באינטרנט?
קודם כול, כדי לתמוך במאבק העולמי נגד CSAM, Google מספקת לחברות את הטכנולוגיה לזיהוי תכנים מהסוג הזה. מעבר לזה, Hash Matching API עוזר להרבה גופים שונים, לא רק ל-NCMEC. כל חברות הטכנולוגיה מרוויחות מהתייעלות התהליכים במרכז שלנו. אנחנו מטפלים מהר יותר בדיווחים שמתקבלים ב-CyberTipline, ובזכות הכלי הזה התהליך שלנו מוסיף ערך רב יותר למידע.
מרכז NCMEC הוא משאב מרכזי בשביל חברות הטכנולוגיה, רשויות אכיפת החוק, הקורבנות והמשפחות שלהם. יש לנו נקודת מבט ייחודית שדרכה אנחנו בוחנים את הבעיות ואת הפתרונות. בזכות מוקד CyberTipline, אנחנו עם האצבע על הדופק בכל מה שקשור לתכני CSAM חדשים וקיימים שמסתובבים באינטרנט. כל הדיווחים האלה מועברים לרשויות אכיפת החוק. אנחנו צריכים לזכור תמיד שבסופו של דבר, מדובר בילדים אמיתיים שהיו קורבנות של ניצול מיני.
אנחנו יודעים על יותר מ-20,000 ילדים שזוהו כקורבנות התעללות, וההתעללות בהם תועדה בסרטון או בתמונה. הקורבנות האלה, שחלקם עדיין ילדים וחלקם כבר מבוגרים, מודעים היטב לעובדה שהפגיעה שהם עברו עדיין ממשיכה. לכן חשוב לנו מאוד לעשות כל מה שאנחנו יכולים כדי לצמצם את ההפצה של התמונות האלה.
לפעמים יש לאנשים איזו נטייה לזלזל בחשיבות של תוכן CSAM מוכר, כי התמונות הן "ישנות" או "מופצות מחדש". לכן אנחנו כל הזמן מזכירים שמדובר בילדים אמיתיים – ושיש יותר מ-20,000 בני אדם שמנסים להחלים מהפגיעה ולהחזיר לעצמם את השליטה בחיים שלהם. זה מנחם אותם לדעת שחברות כמו Google עושות כל מה שהן יכולות כדי להסיר מהאינטרנט את התמונות שמתארות את הרגעים הכי נוראיים בחיים שלהם.
אם אתם נתקלים באינטרנט בחומרים או בתמונות של התעללות מינית בילדים, אתם יכולים לדווח על זה ל- National Center for Missing and Exploited Children (NCMEC), או לרשות המתאימה בכל מקום בעולם.
Google מחויבת למאבק בהתעללות מינית וניצול של ילדים באינטרנט, ולמניעת השימוש בשירותים שלה להפצת תוכן ויזואלי של התעללות מינית בילדים. אפשר לקרוא מידע נוסף על כך באתר שלנו בנושא הגנה על ילדים.