מרכז NCMEC, Google וטכנולוגיית גיבוב תמונות
המרכז הלאומי לילדים נעדרים ונפגעי ניצול בארצות הברית (NCMEC) מקבל מדי שנה מיליוני דיווחים על תוכן ויזואלי של התעללות מינית בילדים (CSAM) שמופץ באינטרנט. מישל דלון, סגנית נשיאה בכירה וסמנכ"ל התפעול הראשית של מרכז NCMEC, מספרת על ההתפתחות של הארגון, על ההתמודדות של חברות הטכנולוגיה עם CSAM ועל התרומה של Hash Matching API של Google.
את יכולה לספר לנו על קצת על NCMEC ועל התפקיד שלך בארגון?
אני עובדת ב-NCMEC כבר יותר מ-20 שנה, אז ראיתי במו עיניי גם את ההתפתחות של הארגון, וגם איך האתגרים והאיומים על שלום הילדים שלנו השתנו לאורך השנים. התחלתי את הקריירה שלי כאן כאנליסטית של הקו החם שאנחנו מפעילים, CyberTipline.
המוקד הוקם והושק בשנת 1998, כדי לאפשר לציבור לדווח על מקרים פוטנציאליים של ניצול ילדים. באותה תקופה, היינו מקבלים בעיקר דיווחים מהורים שחששו שאדם מבוגר משוחח עם הילדים שלהם בצורה לא הולמת באינטרנט, ומאנשים שנתקלו באתרים עם תוכן ויזואלי של התעללות מינית בילדים (CSAM). ואז נחקק בארה"ב חוק פדרלי שחייב חברות טכנולוגיה אמריקאיות לדווח למוקד שלנו על כל חשד לתוכן CSAM במערכות שלהן.
בהתחלה קיבלנו בסביבות 100 דיווחים בשבוע על תקריות של ניצול ילדים. בשנת 2001 הגיע הדיווח הראשון מחברת הייטק. 20 שנה קדימה, ואנחנו מקבלים נכון להיום בערך 70,000 דיווחים חדשים מדי יום. חלק מהדיווחים מגיעים מאנשים פרטיים, אבל רובם נשלחים מחברות הייטק.
איך מרכז NCMEC עוזר לחברות מקוונות להילחם ב-CSAM?
החוק לא מחייב את החברות האלה להילחם בתופעה באופן יזום. אבל אם הן מזהות תוכן שמוגדר כ-CSAM או מגלות שהוא קיים במערכת שלהן, הן חייבות לדווח על זה. בסופו של דבר, זה מה שגרם לעלייה במספר הדיווחים ל-CyberTipline לאורך השנים. אבל הזינוק הכי משמעותי קרה בחמש השנים האחרונות. העלייה הדרמטית הזו נובעת מהמאמצים שחברות טכנולוגיה רבות משקיעות בלזהות, להסיר ולדווח על CSAM באופן יזום, אפילו שהן לא חייבות.
אחת התוכניות המובילות של המרכז שלנו מתמקדת בפלטפורמות לשיתוף ערכי גיבוב (hash), אחת לחברות מסחריות ואחת לעמותות. באמצעות המידע שנאסף בפלטפורמה לעמותות, NCMEC מספקת לחברות טכנולוגיה יותר מחמישה מיליון ערכי גיבוב של תוכן CSAM שאומת וקיבל אישור משלושה מקורות שונים. ככה אנחנו מצליחים לעזור עוזרת לחברות הייטק למנוע הפצה של תוכן כזה ברשתות שלהן. יש הרבה חברות גדולות, כולל Google, שנעזרות ברשימה הזו ומסירות תוכן CSAM מהפלטפורמות שלהן. למעשה, הפלטפורמה שלנו מאפשרת לעמותות שונות שעובדות למען ילדים להעביר את המידע שיש להן לחברות הטכנולוגיה השונות דרך צינור אחד מרכזי.
וכמו שהזכרתי לפני כן, יש לנו גם פלטפורמה דומה בשביל חברות נבחרות, שבה הן יכולות לשתף זו את זו בערכי הגיבוב של תוכן מהסוג הזה. התפקיד שלנו זה לוודא שלכל חברה שרוצה ויכולה לזהות באופן יזום את התכנים האלה יהיו את כל הכלים שהיא צריכה, ושהחברות יוכלו לשתף ביניהן את ערכי הגיבוב הרלוונטיים. Google היא התורמת הגדולה ביותר לפלטפורמה הזו, ובערך 74% מכלל הגיבובים ברשימה מגיעים ממנה.
עם היקף הדיווחים שאנחנו מקבלים היום, אנחנו נתקלים כמובן בהרבה תמונות זהות שמדווחות כמה פעמים. זה הגיוני, כי החברות משתמשות בערכי הגיבוב כדי לזהות חומרים מוכרים. אבל ככל שיש יותר חומרים מוכרים, מה שהופך להיות חשוב יותר ל-NCMEC זה לזהות תכנים חדשים שנוצרו ושותפו באינטרנט.
ממשק Hash Matching API של Google עוזר ל-NCMEC ליצור תעדוף של הדיווחים שמתקבלים במוקד CyberTipline. איך הפרויקט הזה התחיל בעצם?
ההצלחה של הפלטפורמות לשיתוף ערכי גיבוב הולידה אתגר חדש לגמרי: כמות עצומה של נתונים. לעמותה כמו NCMEC אין את כוח המחשוב שנדרש כדי להתמודד עם הכמות הזו. לכן שמחנו כל כך לקבל את העזרה של Google בפיתוח הכלי Hash Matching API.
בשנת 2020 התקבלו 21 מיליון דיווחים ב-CyberTipline, אבל בכל אחד מהדיווחים האלה יכולים להיות כמה תמונות וסרטונים. אז בעצם בדיווחים האלה היו כמעט 70 מיליון תמונות וסרטונים של התעללות מינית בילדים. בתוך הנפח העצום הזה יש כמובן כפילויות, וב-NCMEC אנחנו יודעים לזהות התאמות מדויקות בקלות. אבל הרבה יותר קשה לזהות דמיון ויזואלי בזמן אמת במאגר נתונים בסדר גודל כזה, וזה בדיוק מה שאנחנו צריכים לעשות כדי לתעדף תמונות שעדיין לא ראינו. היכולת הזאת חשובה במיוחד כשאנחנו מנסים לזהות ילדים שעוברים התעללות מינית בזמן אמת.
איך Hash Matching API עזר ל-NCMEC?
יש לנו תפקיד חשוב מאוד: לקחת את המידע הקריטי הזה ולהעביר אותו לרשויות אכיפת החוק כמה שיותר מהר. הכלי הזה מאפשר לנו לנצל בצורה מיטבית את הדיווחים למוקד, וזה יתרון אדיר.
אנחנו צריכים לבדוק כל תמונה וסרטון של התעללות מינית בילדים ולתייג אותם. למשל, "כן CSAM" או "לא CSAM", או "קשה לזהות את הגיל של הילד או האדם". אבל עם 70 מיליון קבצים שהתקבלו רק בשנה שעברה, ברור שאי אפשר לתייג את כולם. ה-API מאפשר לנו להשוות בין הקבצים. כשאנחנו מתייגים קובץ אחד, ה-API מאפשר לנו לזהות את כל הקבצים שדומים לו ויזואלית, ואנחנו יכולים לתייג אותם בהתאם בזמן אמת. כתוצאה מכך, הצלחנו לתייג יותר מ-26 מיליון תמונות.
בזכות התיוג הזה אנחנו מצליחים לשלוח דוחות אינפורמטיביים יותר לרשויות אכיפת החוק, וככה הם יכולים לתעדף את הדיווחים הדחופים. הכלי הזה גם עוזר לנו לזהות אילו תמונות עדיין לא נראו בעבר. בתמונות האלה לרוב מופיעים ילד או ילדה שעוברים התעללות מינית במקום כלשהו בעולם. ועם כמות התמונות שיש לנו, זה כמו לחפש מחט בערימת שחת. רק שהמחט היא ילד או ילדה שצריכים שיצילו אותם. הכלי של Google מאפשר לנו למקד את המאמצים שלנו בתמונות שמופיעים בהן ילדים שזקוקים לעזרה מיידית.
איך זה השפיע על הבודקים האנושיים ב-NCMEC שמטפלים בדיווחים מ-CyberTipline ומנתחים תוכן CSAM?
הכלי לזיהוי CSAM צמצם את הצורך של הצוות שלנו להסתכל על אותן תמונות שוב ושוב. יש תמונות של התעללות מינית בילדים שצולמו כל כך מזמן, שהילדים האלה הם כבר אנשים בוגרים. אבל התמונות האלה נשארות באינטרנט לתמיד, והקורבנות ממשיכים להיפגע מהחשיפה הזאת. היכולת לתייג את התמונות מאפשרת לצוות שלנו להתמקד בילדים שעברו התעללות מינית בזמן האחרון, ובמקביל לצמצם את החשיפה של העובדים לחומרים עצמם.
זה התפקיד של הצוות שלנו – לעזור לילדים האלה. מבחינתנו, הכלי הזה היה פורץ דרך כי הוא אפשר לאנשי הצוות לשמור על עצמם ולא להיחשף שוב ושוב לאותו תוכן מזיק.
איך העבודה שלכם עוזרת לחברות הטכנולוגיה להילחם בתוכן מהסוג הזה באינטרנט?
קודם כול, אנחנו יודעים ש-Google מספקת לחברות את הטכנולוגיה לזיהוי תכנים מהסוג הזה כדי לתמוך במאבק העולמי נגד CSAM. מעבר לזה, Hash Matching API עוזר להרבה גופים שונים, לא רק ל-NCMEC. כל חברות הטכנולוגיה מרוויחות מהתייעלות התהליכים במרכז שלנו. אנחנו מטפלים מהר יותר בדיווחים שמתקבלים ב-CyberTipline, והכלי הזה מוסיף הרבה ערך למידע שיש לנו.
מרכז NCMEC הוא משאב מרכזי בשביל חברות הייטק, רשויות אכיפת החוק, הקורבנות והמשפחות שלהם. יש לנו נקודת מבט ייחודית על הבעיות והפתרונות. בזכות מוקד CyberTipline, אנחנו עם האצבע על הדופק בכל מה שקשור לתכני CSAM חדשים וקיימים שמסתובבים באינטרנט. כל הדיווחים האלה מועברים לרשויות אכיפת החוק. אנחנו צריכים לזכור תמיד שבסופו של דבר, מדובר בילדים אמיתיים שעברו ניצול מיני.
אנחנו יודעים על יותר מ-20,000 ילדים שזוהו כקורבנות התעללות, וההתעללות בהם תועדה בסרטון או בתמונה. הקורבנות האלה, שחלקם עדיין ילדים וחלקם כבר מבוגרים, מודעים היטב לעובדה שהפגיעה בהם ממשיכה. לכן חשוב לנו מאוד לעשות כל מה שאנחנו יכולים כדי לצמצם את ההפצה של התמונות האלה.
לפעמים יש לאנשים איזו נטייה לזלזל בחשיבות של תוכן CSAM מוכר, כי התמונות הן "ישנות" או "מופצות מחדש". לכן אנחנו כל הזמן מזכירים שמדובר בילדים אמיתיים – ושיש יותר מ-20,000 בני אדם שמנסים להחלים מהפגיעה ולהחזיר לעצמם את השליטה בחיים שלהם. זה מנחם אותם מאוד לדעת שחברות כמו Google עושות כל מה שהן יכולות כדי להסיר מהאינטרנט את התמונות שמתעדות את הרגעים הכי נוראיים בחיים שלהם.
אם אתם נתקלים באינטרנט בחומרים או בתמונות של התעללות מינית בילדים, אתם יכולים לדווח על זה ל- National Center for Missing and Exploited Children (NCMEC), או לרשות המתאימה בכל מקום בעולם.
Google מחויבת למאבק בהתעללות מינית וניצול של ילדים באינטרנט, ולמניעת השימוש בשירותים שלה להפצת תוכן ויזואלי של התעללות מינית בילדים. אפשר לקרוא על זה עוד באתר שלנו בנושא הגנה על ילדים.