NCMEC, Google i technologia dopasowująca wartości hash


Każdego roku NCMEC (Krajowe Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA otrzymuje miliony zgłoszeń dotyczących materiałów związanych z wykorzystywaniem seksualnym dzieci online. Michelle DeLaune, starsza wiceprezeska i dyrektorka operacyjna NCMEC, opowiada o rozwoju organizacji, o tym, w jaki sposób firmy technologiczne wkraczają do akcji, aby walczyć z materiałami związanymi z wykorzystywaniem seksualnym dzieci, oraz o interfejsie Hash Matching API od Google, który dopasowuje wartości hash.

Czy możesz nam powiedzieć więcej o organizacji NCMEC (Krajowym Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA i o tym, jaką pełnisz w niej rolę?


Pracuję w NCMEC już ponad 20 lat, więc obserwuję z bliska ewolucję organizacji, jak również wyzwania i zagrożenia dotyczące naszych dzieci i ich bezpieczeństwa. Karierę zaczęłam od stanowiska analityka ds. systemu CyberTipline.

CyberTipline zostało stworzone i wprowadzone na rynek w 1998 roku jako narzędzie dla społeczności, które pozwala zgłaszać potencjalne przypadki wykorzystywania dzieci. W tamtym czasie otrzymywaliśmy zgłoszenia od rodziców zaniepokojonych tym, że jakiś dorosły rozmawiał z ich dzieckiem w sieci w nieodpowiedni sposób. Ponadto zgłaszano znalezione w internecie strony zawierające CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Po jakimś czasie w Stanach Zjednoczonych uchwalono prawo federalne, które zobowiązuje amerykańskie firmy technologiczne do zgłaszania w systemie CyberTipline wszelkich oczywistych przypadków CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), znajdujących się w ich systemach.

W początkowym okresie otrzymywaliśmy około 100 zgłoszeń dotyczących wykorzystywania dzieci tygodniowo. Pierwsze zgłoszenie od firmy technologicznej otrzymaliśmy w 2001 roku. Przenieśmy się błyskawicznie do 2021 roku, w którym to otrzymujemy około 70 tysięcy nowych zgłoszeń dziennie. Niektóre ze zgłoszeń pochodzą ze społeczności, ale większość zgłoszeń w tym momencie pochodzi od firm technologicznych.

W jaki sposób organizacja MCMEC (Krajowe Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA pomaga firmom działającym online walczyć z CSAM (materiałami związanymi z wykorzystywaniem seksualnym dzieci)?


Prawo nie wymaga od firm proaktywnej postawy w tym zakresie. Po prostu, jeśli wykryją CSAM (materiały związane z wykorzystywaniem seksualnym dzieci) lub staną się świadome ich istnienia, muszą to zgłosić. Stało się to prawdziwym impulsem do wzrostu liczby zgłoszeń w systemie CyberTipline w mijających latach. Jednak największy skok, jeśli chodzi o ich liczbę, nastąpił w ciągu ostatnich 5 lat. Ten wzrost może być związany z wysiłkami, które wiele z firm technologicznych podejmuje dobrowolnie, aby proaktywnie wykrywać, usuwać i zgłaszać CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Jednym z naszych flagowych programów w Narodowym Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC) w Stanach Zjednoczonych są platformy udostępniające wartości hash, stworzone z myślą o branży oraz dla wybranych organizacji pozarządowych, tak aby mogły je współtworzyć. Za pomocą platformy dla organizacji pozarządowych udostępniającej wartości hash organizacja NCMEC dostarcza zainteresowanym firmom technologicznym ponad 5 milionów potwierdzonych i potrójnie sprawdzonych wartości hash dotyczących CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), wspierając ich wysiłki związane z walką w tym obszarze w ich własnych sieciach. Wiele dużych firm, w tym Google, korzysta z tej listy i proaktywnie podejmuje kroki, aby usuwać CSAM (materiały związane z wykorzystywaniem seksualnym dzieci) ze swoich platform. Ta lista pozwala również innym znanym organizacjom pozarządowym, które pomagają dzieciom, dostarczać swoje wartości hash branży technologicznej za pomocą platformy z wartościami hash należącej do NCMEC, dzięki czemu firmy technologiczne nie muszą kontaktować się z każdą z organizacji pozarządowych z osobna.

Oferujemy również platformę branżową do udostępniania wartości hash, która umożliwia firmom wzajemne udostępnianie ich własnych wartości hash związanych z CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Każdej firmie, która jest skłonna włączyć się w tę akcję i może proaktywnie wykrywać tego typu materiały, zapewniamy wszelkie potrzebne narzędzia. Dostarczamy również firmom odpowiednich narzędzi do wzajemnego udostępniania sobie ich własnych wartości hash związanych z CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Google to jeden z największych współtwórców tej platformy z około 74% całkowitej liczby wartości hash na liście.

Jak można sobie wyobrazić, biorąc pod uwagę liczbę otrzymywanych przez nas zgłoszeń, wielokrotnie zgłaszane są te same obrazy. Jest to absolutnie zrozumiałe – firmy korzystają z wartości hash, aby wykryć znany materiał. Jednak w momencie, gdy pojawia się go coraz więcej, ważniejsza z perspektywy organizacji NCMEC staje się identyfikacja nowych materiałów, które zostały wyprodukowane i udostępnione online.

Interfejs Hash Matching API od Google, dopasowujący wartości hash, pomaga NCMEC (Krajowemu Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA w nadawaniu priorytetu zgłoszeniom z systemu CyberTipline. Czy możesz nam powiedzieć więcej na temat tego, jak rozpoczął się ten projekt?


Sukces programu udostępniania wartości hash przyniósł zupełnie nowe wyzwanie, jakim stała się liczba zgłoszeń. Organizacje non-profit takie jak NCMEC nie mają możliwości technologicznego obsłużenia takiej liczby zawiadomień. Dlatego z entuzjazmem podeszliśmy do propozycji pomocy ze strony Google w zbudowaniu narzędzia API dopasowującego wartości hash i jesteśmy za nią wdzięczni.

W 2020 roku otrzymaliśmy 21 milionów zgłoszeń w systemie CyberTipline. Każde takie zgłoszenie może zawierać wiele zdjęć i filmów. Te 21 milionów zgłoszeń zawierało prawie 70 milionów materiałów wizualnych związanych z wykorzystywaniem seksualnym dzieci. Oczywiste jest, że wśród nich występują duplikaty. I chociaż NCMEC jest w stanie łatwo wykryć dopasowania ścisłe, to nie bylibyśmy w stanie wykrywać dopasowań wizualnie podobnych w tej skali w czasie rzeczywistym, tak aby móc zidentyfikować nigdy dotąd niewidziane obrazy i nadać im odpowiedni priorytet. A te kroki mają kluczowe znaczenie w identyfikacji dzieci, które w danym momencie są seksualnie wykorzystywane.

Jakie korzyści niesie ze sobą dostarczony organizacji NCMEC (Krajowemu Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA interfejs Hash Matching API?


Nasza praca jest niezwykle ważna — musimy przetworzyć krytyczne informacje tak szybko, jak to możliwe, i udostępnić je organom porządku publicznego.

Mamy cykl pracy, w którym przechodzimy przez każdy materiał wizualny związany z wykorzystywaniem seksualnym dzieci i oznaczamy go etykietą. Przykładowo, „To jest CSAM (materiał związany z wykorzystywaniem seksualnym dzieci)”, „To nie jest CSAM” lub „Trudno ustalić wiek występującego dziecka lub danej osoby". Ale, jak można sobie wyobrazić, nigdy nie uda nam się oznaczyć etykietą wszystkich materiałów, biorąc pod uwagę, że w zeszłym roku mieliśmy do przejrzenia 70 milionów plików. To interfejs API pozwala nam na porównanie. Kiedy oznaczamy jeden plik, interfejs API umożliwia nam identyfikację wszystkich podobnych wizualnie plików, które następnie adekwatnie oznaczamy w czasie rzeczywistym. Dzięki temu udało nam się opatrzyć odpowiednią etykietą już ponad 26 milionów obrazów.

To sprawia, że organy porządku publicznego otrzymują wartościowsze zgłoszenia i mogą im nadać odpowiedni priorytet. Pomaga nam to również w stwierdzaniu, które obrazy widzimy po raz pierwszy. Te obrazy często zawierają zdjęcie dziecka, które gdzieś na świecie jest właśnie wykorzystywane seksualnie. To jak szukanie igły w stogu siana, gdzie igłą jest dziecko pilnie potrzebujące ratunku. Narzędzie Google pozwoliło nam skupić się na tych obrazach, które przedstawiają dzieci wymagające natychmiastowej pomocy.

W jaki sposób wpłynęło to na weryfikatorów pracujących w NCMEC, którzy przetwarzają zgłoszenia z systemu CyberTipline oraz analizują treści CSAM (materiały związane z wykorzystywaniem seksualnym dzieci)?


Narzędzie wykrywające CSAM (materiały związane z wykorzystywaniem seksualnym dzieci) zmniejszyło potrzebę wielokrotnego przeglądania tych samych obrazów przez nasz zespół. Istnieją obrazy dotyczące wykorzystywania seksualnego dzieci, które mogą być już w tym momencie dorosłymi osobami. Takie obrazy żyją w internecie wiecznie i mogą przyczyniać się do wtórnej wiktymizacji osób, które przedstawiają. Możliwość oznaczenia tych obrazów pozwala skupić się na obrazach przedstawiających dzieci niedawno wykorzystywane seksualnie, a jednocześnie usuwać nielegalne obrazy, aby nie można ich było przeglądać.

Nasz zespół jest właśnie po to, by pomagać tym dzieciom. To przełomowe udoskonalenie sprawiło, że nasi pracownicy nie muszą konfrontować się raz po raz z tymi samymi szkodliwymi treściami, co przyczynia się do poprawy ich dobrostanu.

W jaki sposób ta praca pomaga firmom technologicznym walczyć z tego typu materiałami online w ogólnym rozrachunku?


Wiemy, że Google dostarcza firmom technologię do wykrywania CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), aby wspierać globalną walkę z tego typu materiałami, jak również interfejs Hash Matching API dopasowujący wartości hash, który ma bezpośredni wpływ nie tylko na pracę NCMEC (Krajowego Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA, ale i wielu innych organizacji. Wszystkie firmy technologiczne korzystają z usprawnionych i bardziej wydajnych procesów w NCMEC. Zgłoszenia z systemu CyberTipline są przesyłane punktualnie, praca nad nimi odbywa się w bardziej regularny sposób, a liczba dodanych wartości hash jest większa, niż gdyby tego narzędzia nie było.

NCMEC to główny zasób dla firm technologicznych, organów porządku publicznego, osób, które doświadczyły tego typu przemocy i ich rodzin. Nasza perspektywa patrzenia na problemy i rozwiązania jest wyjątkowa. Dzięki systemowi CyberTipline jesteśmy świadomi nowopowstałych i już istniejących CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), które krążą w internecie. Wszystkie zgłoszenia są udostępniane organom porządku publicznego. Nigdy nie powinniśmy tracić z oczu tego, że w tej całej sytuacji znajdują się prawdziwe dzieci, które stały się ofiarami wykorzystania seksualnego.

Wiemy o ponad 20 tysiącach zidentyfikowanych dzieci, które zostały wykorzystane seksualnie, a ich krzywda została utrwalona w formie zdjęć lub filmów Ci ocalali, pośród których są dzieci i osoby obecnie już dorosłe, są boleśnie świadomi ciągłej wiktymizacji, której doświadczają. Dlatego tak ważne jest dla nas, by zrobić wszystko, co tylko w naszej mocy, aby zredukować liczbę krążących w internecie obrazów.

To, co może być niejasne dla szerszej publiczności, to fakt, że istnieje ryzyko zignorowania znanych CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), ponieważ obrazy mogą zostać uznane za „stare” lub „ukazujące się po raz kolejny”. Nieustająco bijemy na alarm i przypominamy ludziom o tym, że mówimy tutaj o prawdziwych dzieciach Ponad 20 tysięcy osób próbuje wyjść z traumy i odzyskać kontrolę nad swoim życiem. Wiedza, że firmy takie jak Google robią wszystko, co możliwe, aby usunąć obrazy pokazujące najgorsze chwile ich życia, niesie im ukojenie.

Jeśli natkniesz się na materiały wizualne związane z wykorzystywaniem seksualnym dzieci, możesz zgłosić to Krajowemu Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom (NCMEC) w USA, lub innego właściwego organu państwowego na całym świecie.

Google dokłada wszelkich starań, aby walczyć z wykorzystywaniem seksualnym dzieci w sieci, nie pozwalając na to, aby materiały powiązane z wykorzystywaniem seksualnym dzieci (CSAM) były rozprzestrzeniane za pomocą naszych produktów i usług.Dowiedz się więcej w witrynie Ochrona dzieci.

Innowacje w zakresie cyberbezpieczeństwa

Dowiedz się, w jaki sposób chronimy więcej osób online niż ktokolwiek inny.

Więcej informacji