Przejdź do treści

hero-ncmec.jpg

NCMEC, Google i technologia haszowania obrazów

Każdego roku NCMEC (Krajowe Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA otrzymuje miliony zgłoszeń dotyczących materiałów związanych z wykorzystywaniem seksualnym dzieci online. Michelle DeLaune, starsza wiceprezeska i dyrektorka operacyjna NCMEC, opowiada o rozwoju organizacji, o tym, w jaki sposób firmy technologiczne wkraczają do akcji, aby walczyć z materiałami związanymi z wykorzystywaniem seksualnym dzieci oraz o interfejsie Hash Matching API od Google, który dopasowuje wartości hash.

Udostępnij

Czy możesz nam powiedzieć więcej o organizacji NCMEC (Krajowym Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA i o tym, jaka jest Twoja w niej rola?

Pracuję w organizacji NCMEC już ponad 20 lat, więc widziałam ewolucję organizacji na własne oczy, jak również wyzwania i zagrożenia dotyczące naszych dzieci i ich bezpieczeństwa. Moja kariera tutaj zaczęła się od stanowiska analityka ds. systemu CyberTipline.

CyberTipline został stworzony i wprowadzony na rynek w 1998 roku jako narzędzie dla społeczności, które pozwala zgłaszać potencjalne przypadki wykorzystywania dzieci. W tamtym czasie otrzymywaliśmy zgłoszenia od rodziców, którzy byli zaniepokojeni tym, że jakiś dorosły rozmawiał z ich dzieckiem w sieci w nieodpowiedni sposób. Ponadto ludzie zgłaszali strony zawierające CSAM (materiały przedstawiające wykorzystywanie seksualne dzieci), które znaleźli w internecie. Następnie w Stanach Zjednoczonych uchwalono prawo federalne, które zobowiązuje amerykańskie firmy technologiczne do zgłaszania w systemie CyberTipline wszelkich oczywistych przypadków CSAM (materiałów przedstawiających wykorzystywanie seksualne dzieci), znajdujących się w ich systemach.

W początkowym okresie otrzymywaliśmy około 100 zgłoszeń dotyczących wykorzystywania dzieci tygodniowo. Pierwsze zgłoszenie od firmy technologicznej otrzymaliśmy w 2001 roku. Przenieśmy się błyskawicznie do 2021 roku, w którym to otrzymujemy około 70 tysięcy nowych zgłoszeń dziennie. Niektóre ze zgłoszeń pochodzą ze społeczności, ale większość zgłoszeń w tym momencie pochodzi od firm technologicznych.

ncmec-image-1.jpg

W jaki sposób organizacja NCMEC (Krajowe Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA pomaga firmom działającym online walczyć z CSAM (materiałami przedstawiającymi wykorzystywanie seksualne dzieci)?

Prawo nie wymaga od firm podejmowania żadnych proaktywnych działań. Po prostu, jeśli wykryją CSAM (materiały przedstawiające wykorzystywanie seksualne dzieci) lub staną się świadome ich istnienia, muszą to zgłosić. Stało się to prawdziwym impulsem do wzrostu liczby zgłoszeń w systemie CyberTipline w mijających latach. Jednak największy skok, jeśli chodzi o ich liczbę, nastąpił w ciągu ostatnich 5 lat. Ten wzrost może być związany z wysiłkami, które wiele z firm technologicznych podejmuje dobrowolnie, aby proaktywnie wykrywać, usuwać i zgłaszać CSAM (materiały przedstawiające wykorzystywanie seksualne dzieci).

Jeden z naszych flagowych programów w Narodowym Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC) w Stanach Zjednoczonych to platformy udostępniające wartości hash stworzone z myślą o branży oraz dla wybranych organizacji pozarządowych, aby mogły je współtworzyć. Za pomocą platformy dla organizacji pozarządowych udostępniającej wartości hash, organizacja NCMEC dostarcza zainteresowanym firmom technologicznym ponad 5 milionów potwierdzonych i potrójnie sprawdzonych wartości hash dotyczących CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), aby wesprzeć ich wysiłki związane z walką w tym obszarze w ich własnych sieciach. Wiele dużych firm, włączając w to Google, korzysta z tej listy i proaktywnie podejmuje kroki, aby usuwać CSAM (materiały związane z wykorzystywaniem seksualnym dzieci) ze swoich platform. Ta lista pozwala również innym znanym organizacjom pozarządowym, które pomagają dzieciom, dostarczać swoje wartości hash branży technologicznej za pomocą platformy z wartościami hash należącej do NCMEC, tak, aby firmy technologiczne nie musiały kontaktować się z każdą z organizacji pozarządowych z osobna.

Oferujemy również platformę branżową do udostępniania wartości hash, która umożliwia firmom wzajemne udostępnianie ich własnych wartości hash związanych z CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Każdej firmie, która jest skłonna się w to włączyć i może proaktywnie wykrywać tego typu materiały, zapewniamy wszelkie narzędzia, których do tego potrzebuje. Zapewniamy również narzędzia dla firm, aby mogły udostępniać sobie wzajemnie ich własne wartości hash związane z CSAM (materiały związane z wykorzystywaniem seksualnym dzieci). Google to jeden z największych współtwórców tej platformy z około 74% całkowitej liczby wartości hash na liście

.Jak można sobie wyobrazić, biorąc pod uwagę liczbę zgłoszeń, które teraz otrzymujemy, wielokrotnie zgłaszane są te same obrazy. Jest to absolutnie zrozumiałe – firmy korzystają z wartości hash, aby wykryć znany materiał, ale w momencie, kiedy pojawia się go coraz więcej – to ważniejsza z perspektywy organizacji NCMEC staje się identyfikacja nowych materiałów, które zostały wyprodukowane i udostępnione online.

ncmec-story-image-2.jpg

Interfejs Hash Matching API od Google, dopasowujący wartości hash, pomaga NCMEC (Krajowemu Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA w nadawaniu priorytetu zgłoszeniom z systemu CyberTipline. Czy możesz nam powiedzieć więcej na temat tego, jak rozpoczął się ten projekt?

Sukces programu udostępniania wartości hash przyniósł zupełnie nowe wyzwanie, jakim stała się liczba zgłoszeń. Organizacje non-profit takie jak NCMEC nie mają możliwości technologicznego obsłużenia takiej liczby zgłoszeń. Dlatego z entuzjazmem podeszliśmy do propozycji pomocy ze strony Google w zbudowaniu narzędzia API dopasowującego wartości hash i jesteśmy wdzięczni za tę propozycję.

W 2020 roku otrzymaliśmy 21 milionów zgłoszeń w systemie CyberTipline. Każde takie zgłoszenie może zawierać wiele zdjęć i filmów. Te 21 milionów zgłoszeń zawierało prawie 70 milionów materiałów wizualnych związanych z wykorzystywaniem seksualnym dzieci. Oczywiste jest, że wśród nich występują duplikaty. I chociaż NCMEC jest w stanie łatwo wykryć dopasowania ścisłe, to nie moglibyśmy wykrywać dopasowań wizualnie podobnych w tej skali w czasie rzeczywistym w celu identyfikacji nigdy niewidzianych wcześniej obrazów i ustalenia priorytetów w odniesieniu do nich. A to jest kluczowy element, kiedy próbujemy zidentyfikować dzieci, które są seksualnie wykorzystywane w danym momencie.

Jakie korzyści przyniosło NCMEC korzystanie z interfejsu Hash Matching API?

Nasza praca jest niezwykle ważna, musimy przetworzyć krytyczne informacje tak szybko, jak to możliwe, i udostępnić je organom porządku publicznego. Jedną z zalet tego narzędzia jest to, że daje nam nowe możliwości w zakresie dodawania dużej liczby wartości hash do zgłoszeń w systemie CyberTipline.

Mamy cykl pracy, w którym przechodzimy przez każdy materiał wizualny związany z wykorzystywaniem seksualnym dzieci i oznaczamy go etykietą. Przykładowo, „To jest CSAM (materiał związany z wykorzystywaniem seksualnym dzieci)”, „To nie jest CSAM” lub „Trudno ustalić wiek występującego dziecka lub danej osoby". Ale, jak można sobie wyobrazić, nigdy nie uda nam się oznaczyć etykietą wszystkich materiałów, biorąc pod uwagę, że w zeszłym roku mieliśmy 70 milionów plików. To interfejs API pozwala nam na porównanie. Kiedy oznaczamy jeden plik, interfejs API umożliwia nam identyfikację wszystkich podobnych wizualnie plików, które następnie adekwatnie oznaczamy w czasie rzeczywistym. Dzięki temu udało nam się oznaczyć ponad 26 milionów obrazów.

To sprawia, że organy porządku publicznego otrzymują zgłoszenia, które są bardziej wartościowe, i mogą ustalić priorytety w kwestii tego, którymi zgłoszeniami zajmą się najpierw. Pomaga nam to również zidentyfikować, które obrazy widzimy po raz pierwszy. Te obrazy często zawierają zdjęcie dziecka, które jest gdzieś na świecie i jest wykorzystywane seksualnie. Jeśli porównamy to do przysłowiowego stogu siana i próbujemy szukać w nim igły, to naszą igłą jest dziecko, które potrzebuje ratunku. Narzędzie Google pozwoliło nam skupić się na tych obrazach, które przedstawiają dzieci potrzebujące natychmiastowej pomocy.

W jaki sposób wpłynęło to na weryfikatorów pracujących w NCMEC, którzy przetwarzają zgłoszenia z systemu CyberTipline oraz analizują treści CSAM (materiały związane z wykorzystywaniem seksualnym dzieci)?

Narzędzie wykrywające CSAM zmniejszyło potrzebę wielokrotnego przeglądania tych samych obrazów przez nasz zespół. Istnieją obrazy dotyczące wykorzystywania seksualnego dzieci, które mogą być już w tym momencie dorosłymi osobami. Takie obrazy żyją w internecie wiecznie i mogą przyczyniać się do wtórnej wiktymizacji osób, które przedstawiają. Możliwość oznaczenia tych obrazów pozwala skupić się na obrazach przedstawiających dzieci niedawno wykorzystywane seksualnie, a jednocześnie usuwać nielegalne obrazy, aby nie można ich było przeglądać.

To powód, dla którego istnieje nasz zespół – chce pomagać tym dzieciom. To przełomowe udoskonalenie sprawiło, że nasz zespół nie musi konfrontować się ze szkodliwymi treściami raz po raz, co przyczynia się do poprawy jego dobrostanu.

ncmec-story-image-3.jpg

W jaki sposób ta praca pomaga firmom technologicznym w ogólnym rozrachunku walczyć z tego typu materiałami online?

Wiemy, że Google dostarcza firmom technologię do wykrywania CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), aby wspierać globalną walkę z tego typu materiałami, jak również interfejs Hash Matching API dopasowujący wartości hash, który ma bezpośredni wpływ nie tylko na pracę NCMEC (Krajowego Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom) w USA, ale i wielu innych organizacji. Wszystkie firmy technologiczne cieszą się korzyściami, które płyną z bardziej uproszczonych i wydajnych procesów w NCMEC. Zgłoszenia z systemu CyberTipline są przesyłane punktualnie, a praca nad nimi odbywa się w bardziej regularny sposób, natomiast liczba dodanych wartości hash jest większa, niż gdyby tego narzędzia nie było.

NCMEC to główny zasób dla firm technologicznych, organów porządku publicznego, osób, które doświadczyły tego typu przemocy i ich rodzin. Nasza perspektywa patrzenia na problemy i rozwiązania jest wyjątkowa. Dzięki systemowi CyberTipline jesteśmy świadomi nowopowstałych i już istniejących CSAM (materiałów związanych z wykorzystywaniem seksualnym dzieci), które krążą w internecie. Wszystkie zgłoszenia są udostępniane organom porządku publicznego. Nigdy nie powinniśmy tracić z oczu tego, że w tej całej sytuacji znajdują się prawdziwe dzieci, które stały się ofiarami wykorzystania seksualnego.

Wiemy o ponad 20 tysiącach zidentyfikowanych dzieci,które zostały wykorzystane seksualnie, a ich krzywda została utrwalona w formie zdjęć lub filmów. Ci ocalali, pośród których są dzieci i osoby obecnie już dorosłe, są całkowicie świadomi ciągłej wiktymizacji, której doświadczają. Dlatego tak ważne jest dla nas, by zrobić wszystko, co tylko w naszej mocy, aby zredukować liczbę krążących w internecie obrazów.

Jedną z rzeczy, która może nie być jasna dla opinii publicznej, jest tendencja do odrzucania znanych materiałów CSAM, ponieważ obrazy mogą być uważane za „stare” lub „ponownie rozpowszechniane”. Nieustannie przypominamy ludziom, że to prawdziwe dzieci – że ponad 20 tys. osób próbuje dojść do siebie i odzyskać kontrolę nad swoim życiem. Wiedza, że firmy takie jak Google robią wszystko, co możliwe, aby usunąć obrazy pokazujące najgorsze chwile ich życia, niesie im ukojenie.

Jeśli natkniesz się na materiały wizualne związane z wykorzystywaniem seksualnym dzieci, możesz zgłosić to Krajowemu Centrum Pomocy Zaginionym i Wykorzystywanym Dzieciom (NCMEC) w USA, lub innemu właściwemu organowi państwowemu na całym świecie.

Google dokłada starań, aby walczyć z wykorzystywaniem seksualnym dzieci w sieci, nie pozwalając na to, aby materiały powiązane z wykorzystywaniem seksualnym dzieci (CSAM) były rozprzestrzeniane za pomocą naszych produktów i usług. Dowiedz się więcej w  witrynie Ochrona dzieci.

Wróć na górę strony