Перейти до контенту

hero-ncmec.jpg

NCMEC, Google і технологія хешування зображень

Щороку Національний центр зниклих і експлуатованих дітей (NCMEC) у США отримує мільйони повідомлень про матеріали, що зображують сексуальне насильство над дітьми в Інтернеті. Старша віцепрезидентка й головна операційна директорка NCMEC Мішель ДеЛон розповідає про розвиток організації, як технологічні компанії борються із сексуальним насильством над дітьми в Інтернеті й про API зіставлення хешів від Google.

Поділитися

Розкажіть про NCMEC і свою роль у цій організації.

Я працюю в NCMEC понад 20 років, тому на власні очі бачила, як розвивалася організація, а також які виклики й загрози постають перед нашими дітьми та їхньою безпекою. Я почала свою кар’єру тут як аналітик CyberTipline.

Систему CyberTipline було створено й запущено в 1998 році, щоб дати змогу громадськості повідомляти про потенційні випадки експлуатації дітей. У той час ми отримували повідомлення від батьків, які були стурбовані тим, що доросла людина неналежним чином спілкується з їхньою дитиною в Інтернеті, а також від людей, які натрапили на вебсайти з матеріалами із зображенням сексуального насильства над дітьми. Після цього в США було прийнято федеральний закон, який зобов’язував американські технологічні компанії повідомляти про будь-які очевидні випадки дитячої порнографії в їхніх системах у CyberTipline.

На початку роботи ми могли отримувати понад 100 повідомлень про експлуатацію дітей на тиждень. Перший звіт від технологічної компанії ми отримали у 2001 році. У 2021 році ми отримували приблизно 70 000 нових скарг щодня. Деякі з них надходять від громадськості, але більшість звітів подають технологічні компанії.

ncmec-image-1.jpg

Як NCMEC допомагає онлайн-компаніям боротися з матеріалами, що зображують сексуальне насильство над дітьми?

Закон не вимагає від компаній вживати жодних проактивних заходів. Якщо вони виявляють контент із зображенням сексуального насильства над дітьми чи дізнаються про нього, то зобов’язані повідомити про це. Саме це стало поштовхом для стрімкого розвитку Національного центру зниклих і експлуатованих дітей, який ми спостерігаємо протягом багатьох років. Однак за останні п’ять років кількість повідомлень значно зросла. Цей вибуховий ріст можна пояснити зусиллями, яких багато технологічних компаній добровільно докладають, щоб виявляти й видаляти матеріали, що зображують сексуальне насильство над дітьми, а також повідомляти про них у відповідні органи.

Однією з наших флагманських програм у Національному центрі зниклих і експлуатованих дітей є платформи обміну хеш-функціями, які дають змогу робити внески як галузевим компаніям, так і окремим неурядовим організаціям. Завдяки платформі обміну хешами неурядових організацій центр NCMEC надає зацікавленим технологічним компаніям понад п’ять мільйонів хеш-значень підтверджених матеріалів із зображенням сексуального насильства над дітьми, які пройшли потрійну перевірку, щоб допомогти їм боротися з такими матеріалами у своїх мережах. Багато великих компаній, зокрема Google, скористалися цим списком і вживають активних заходів, щоб видаляти матеріали із зображенням сексуального насильства над дітьми зі своїх платформ. Цей список також дає змогу іншим авторитетним неурядовим організаціям, які допомагають дітям, надавати свої хеші технологічним компаніям через платформу хешів NCMEC, щоб зменшити потребу в індивідуальному зверненні до кожної з них.

Крім того, ми пропонуємо платформу обміну хешами для галузі, яка дає змогу окремим компаніям ділитися власними хешами матеріалів із зображенням сексуального насильства над дітьми. Ми дбаємо про те, щоб кожна компанія, яка хоче й може виявляти такі матеріали, мала для цього всі необхідні інструменти, а також могла обмінюватися хешами матеріалів із зображенням сексуального насильства над дітьми з іншими компаніями. Компанія Google є найбільшим учасником цієї платформи, на яку припадає приблизно 74% від загальної кількості хешів у списку.

Як ви можете собі уявити, з огляду на обсяг звітів, які ми отримуємо, багато однакових зображень надсилаються кілька разів. Це цілком зрозуміло, оскільки компанії використовують хеш-значення для виявлення відомих матеріалів. Однак зі збільшенням обсягу відомих матеріалів для NCMEC стає важливішим виявляти нові матеріали, які створюються й поширюються в Інтернеті.

ncmec-story-image-2.jpg

Завдяки Google Hash Matching API працівники NCMEC можуть визначати пріоритетність звітів CyberTipline. Розкажіть, як почався цей проєкт.

Успіх програми обміну хеш-значеннями створив абсолютно новий виклик: обсяг даних, який становив величезну проблему. Неприбуткова організація, така як NCMEC, не має обчислювальної потужності для обробки такого обсягу даних. Саме тому ми були так раді й вдячні за допомогу Google у створенні інструмента Hash Matching API.

У 2020 році ми отримали 21 мільйон повідомлень CyberTipline, але кожне з них може містити кілька зображень і відео. Ці 21 мільйон скарг насправді містили близько 70 мільйонів зображень і відео сексуального насильства над дітьми. Зрозуміло, що в цьому обсязі є дублікати, і хоча NCMEC легко виявляє точні збіги, ми не зможемо виявляти візуально схожі збіги в масштабі й у реальному часі, щоб ідентифікувати й визначати пріоритетність зображень, які ніколи раніше не бачили. Це ключовий момент, коли ми намагаємося ідентифікувати дітей, які зазнають сексуального насильства.

Які переваги Hash Matching API приніс NCMEC?

У нас дуже важлива робота – ми маємо якомога швидше передавати цю критичну інформацію правоохоронним органам. Однією з переваг цього інструмента є те, що він дає нам новий спосіб значно підвищити цінність звітів CyberTipline.

Ми маємо програму, у межах якої переглядаємо кожне зображення й відео із сексуальним насильством над дітьми й позначаємо їх. Наприклад, "Це матеріали із зображенням сексуального насильства над дітьми", "Це не матеріали із зображенням сексуального насильства над дітьми" або "Важко визначити вік дитини чи особи". Однак, як ви можете собі уявити, минулого року ми отримали 70 мільйонів файлів, і ми ніколи не зможемо позначити їх усі. Цей API дає нам змогу проводити порівняння. Коли ми позначаємо один файл тегом, API дає змогу визначити всі візуально схожі файли, які ми потім позначаємо відповідними тегами в реальному часі. Завдяки цьому нам удалося позначити понад 26 мільйонів зображень.

Це допомагає нам надавати правоохоронним органам цінніші звіти, щоб вони могли визначати, які з них розглядатимуть насамперед. Це також допомагає нам визначати, які зображення ніколи раніше не бачили. На них часто зображено дитину, яка зазнає сексуального насильства. Якщо порівнювати з пошуком голки в копиці сіна, то в цьому випадку голка – це дитина, яку потрібно врятувати. Інструмент Google допоміг нам зосередитися на зображеннях, які містять дітей, що потребують негайної допомоги.

Як це вплинуло на добробут спеціалістів NCMEC, які обробляють звіти CyberTipline й аналізують матеріали із зображенням сексуального насильства над дітьми?

Цей інструмент виявлення матеріалів із зображенням сексуального насильства над дітьми зменшив потребу в тому, щоб наші працівники знову й знову переглядали одні й ті самі зображення. Діти, зображені в таких матеріалах, зараз можуть бути вже дорослими. Ці зображення постійно доступні в Інтернеті й сприяють подальшій віктимізації цих осіб. Завдяки тегам спеціалісти можуть зосередитися на зображеннях, які свідчать про нещодавнє сексуальне насильство, і водночас видалити незаконні матеріали.

Саме тому наші співробітники працюють тут: вони хочуть допомагати дітям. Це стало проривом у можливості наших співробітників піклуватися про своє здоров’я і не стикатися з тим самим шкідливим контентом знову й знову.

ncmec-story-image-3.jpg

Як ця робота допомагає технологічним компаніям загалом боротися з таким контентом в Інтернеті?

Ми знаємо, що Google надає іншим компаніям технологію виявлення матеріалів із зображенням сексуального насильства над дітьми, щоб підтримувати глобальну боротьбу з таким контентом, і що API для зіставлення хешів безпосередньо впливає на багатьох людей за межами NCMEC. Усі технологічні компанії користуються перевагами більш оптимізованого й ефективного процесу в Національному центрі. Завдяки цьому інструменту ми можемо швидше й ефективніше обробляти звіти CyberTipline.

NCMEC – це центральний ресурс для технологічних компаній, правоохоронних органів, постраждалих і їхніх сімей. Ми маємо унікальний підхід до проблем і рішень. Завдяки системі CyberTipline ми добре обізнані про новостворені й наявні матеріали із зображенням сексуального насильства над дітьми, які поширюються в Інтернеті. Усі ці звіти надаються правоохоронним органам. Ми ніколи не повинні забувати, що в біді опинилися реальні діти, які стали жертвами сексуального насильства й експлуатації.

Нам відомо про понад 20 000 дітей, які зазнали сексуального насильства, і ці злочини зафіксовано на відео або зображеннях. Ці люди, серед яких є діти й дорослі, гостро усвідомлюють, що й досі залишаються жертвами. Саме тому для нас так важливо робити все можливе, щоб мінімізувати й зменшити розповсюдження цих зображень.

Одна річ, яка може бути незрозумілою для громадськості, полягає в тому, що існує тенденція ігнорувати відомі матеріали із зображенням сексуального насильства над дітьми, оскільки зображення можуть вважатися "старими" або "повторно розповсюдженими". Ми постійно нагадуємо людям, що це реальні діти, і що понад 20 000 осіб намагаються зцілитися й повернути контроль над своїм життям. Їм приємно знати, що такі компанії, як Google, докладають усіх зусиль, щоб видаляти зображення, які нагадують про найгірші моменти їхнього життя.

Якщо ви натрапили на зображення сексуального насильства над дітьми в Інтернеті, повідомте про це в (National Center for Missing & Exploited Children – NCMEC) або відповідний орган влади у вашій країні.

Google серйозно ставиться до боротьби із сексуальним насильством над дітьми й їх експлуатацією в Інтернеті й забороняє використовувати наші сервіси для поширення такого контенту. Щоб дізнатися більше, відвідайте наш вебсайт Protecting Children, присвячений захисту дітей.

Повернутися на початок сторінки