NCMEC, Google și tehnologia de indexare a imaginilor prin hashing


În Statele Unite, National Center for Missing and Exploited Children (NCMEC) primește anual milioane de rapoarte privind materialele cu abuzuri sexuale asupra copiilor (CSAM), disponibile online. Michelle DeLaune, vicepreședinte senior și director de operațiuni al NCMEC, vorbește despre evoluția organizației, despre modul în care companiile de tehnologie iau măsuri pentru a rezolva problemele legate de materialele cu abuzuri sexuale asupra copiilor și despre API-ul Hash Matching de la Google.

Ne poți spune mai multe despre NCMEC și despre rolul tău?


Lucrez la NCMEC de peste 20 de ani și am asistat, deci, la evoluția organizației, constatând provocările și amenințările la adresa copiilor noștri și a siguranței lor. Am început ca analist în cadrul CyberTipline.

Serviciul CyberTipline a fost creat și lansat în anul 1998, pentru ca cetățenii să poată reclama potențiale cazuri de exploatare a copiilor. În acea perioadă, primeam sesizări de la părinți îngrijorați că un adult vorbea în mod neadecvat cu copiii lor online și de la persoane care descopereau site-uri care conțineau CSAM. Apoi, în Statele Unite, a intrat în vigoare o lege federală care le impunea companiilor americane de tehnologie să raporteze la CyberTipline orice incidente evidente asociate cu CSAM, de pe sistemele lor.

La început, probabil depășeam 100 de sesizări săptămânale privind exploatarea copiilor. Am primit primul raport de la o companie de tehnologie, în anul 2001. În anul 2021, am primit aproximativ 70.000 de sesizări noi, pe zi. Unele dintre acestea provin de la persoane fizice, dar majoritatea rapoartelor sunt trimise de către companii de tehnologie.

Cum ajută NCMEC companiile care își desfășoară activitatea online să combată CSAM?


Legislația nu le impune companiilor să facă eforturi proactive. Pur și simplu, dacă acestea detectează sau iau cunoștință de un conținut CSAM, trebuie să îl raporteze. Acest proces este forța din spatele creșterii benefice pe care am observat-o, de-a lungul anilor, în ceea ce privește CyberTipline. Dar, în ultimii cinci ani, am înregistrat cea mai mare creștere a numărului de raportări. Această explozie poate fi atribuită eforturilor pe care multe companii de tehnologie le depun voluntar, din proprie inițiativă, pentru a detecta, elimina și raporta proactiv CSAM.

Unul dintre programele reprezentative pe care le desfășurăm la National Center for Missing & Exploited Children îl reprezintă platformele de distribuire a valorilor hash, la care pot contribui atât companiile din domeniu, cât și anumite ONG-uri. Prin platforma de distribuire a valorilor hash pentru ONG-uri, NCMEC le oferă companiilor de tehnologie interesate peste cinci milioane de valori hash asociate unor materiale CSAM confirmate, verificate de trei ori, pentru a le sprijini eforturile de a combate CSAM în rețelele lor. Multe companii mari, inclusiv Google, s-au alăturat acestei inițiative și iau măsuri proactive pentru a elimina CSAM de pe platformele lor. Inițiativa le dă altor ONG-uri respectabile, care ajută copiii, posibilitatea de a trimite valorile lor hash industriei tehnologice, prin intermediul platformei pentru valori hash a NCMEC, pentru a evita ca o companie de tehnologie să contacteze individual fiecare ONG.

De asemenea, oferim o platformă de distribuire a valorilor hash pentru industrie, care le permite anumitor companii să-și trimită una alteia propriile valori hash asociate cu CSAM. Ne asigurăm că orice companie dispusă și capabilă să detecteze proactiv acest tip de materiale deține toate instrumentele necesare în acest scop și că firmele își pot trimite una alteia propriile valori hash asociate cu CSAM. Google este cel mai mare colaborator al acestei platforme, înregistrând aproximativ 74% din totalul valorilor hash.

După cum vă puteți imagina, dat fiind volumul de rapoarte primite în momentul de față, multe fotografii sunt raportate de mai multe ori. Acest lucru este de înțeles, deoarece companiile folosesc valori hash pentru a detecta materiale cunoscute, dar, odată cu creșterea volumului de materiale cunoscute, pentru NCMEC este mai important să poată identifica materiale noi, care au fost create și distribuite online.

Cu ajutorul API-ului Hash Matching de la Google, NCMEC a reușit să prioritizeze rapoartele CyberTipline. Ne poți spune mai multe despre începuturile acestui proiect?


Succesul programului de distribuire a valorilor hash a dat naștere unei noi provocări: un volum de rapoarte care prezenta dificultăți mari. O organizație nonprofit precum NCMEC nu are puterea de calcul necesară pentru a face față acestui volum. Tocmai de aceea, am fost deosebit de încântați și recunoscători pentru ajutorul oferit de Google la crearea instrumentului API Hash Matching.

În anul 2020, am primit 21 de milioane de rapoarte CyberTipline, dar fiecare dintre acestea putea conține mai multe imagini și videoclipuri. Cele 21 de milioane de rapoarte au inclus aproape 70 de milioane de imagini și videoclipuri cu abuzuri sexuale asupra copiilor. Evident că există și dubluri într-un astfel de volum și, deși NCMEC poate detecta cu ușurință potrivirile exacte, nu am putea să detectăm potrivirile vizuale la scară largă și în timp real, pentru a putea identifica și a prioritiza imaginile pe care nu le-am mai văzut. Această operațiune este esențială, atunci când încercăm să identificăm copiii care sunt abuzați sexual.

Ce beneficii a adus API-ul Hash Matching organizației NCMEC?


Avem o sarcină foarte importantă, și anume să preluăm niște informații critice și să le transmitem cât mai repede autorităților. Unul dintre avantajele acestui instrument este faptul că ne oferă o nouă modalitate de a obține rapoarte CyberTipline deosebit de utile.

Avem o procedură de lucru prin care prelucrăm toate imaginile și videoclipurile cu abuzuri sexuale asupra copiilor și le etichetăm. De exemplu, „Acest conținut reprezintă CSAM”, „Acest conținut nu reprezintă CSAM” sau „Este dificil să identificăm vârsta copilului sau a persoanei în cauză”. Dar, după cum vă puteți imagina, întrucât doar anul trecut am primit 70 de milioane de fișiere, nu vom reuși niciodată să le etichetăm pe toate. Acest API ne dă posibilitatea să facem o comparație. Atunci când etichetăm un fișier, API-ul ne permite să identificăm toate fișierele similare din punct de vedere vizual, pe care apoi le etichetăm corespunzător, în timp real. Prin urmare, am reușit să etichetăm peste 26 de milioane de imagini.

Astfel, creștem utilitatea rapoartelor pe care le trimitem autorităților, astfel încât să poată decide pe care le vor examina primele. În plus, identificăm imaginile pe care nu le-am mai analizat. Aceste imagini conțin, adesea, un copil care este abuzat sexual. Dacă, așa cum spune proverbul, căutăm acul în carul cu fân, în cazul de față acul este un copil care trebuie salvat. Instrumentul de la Google ne-a ajutat să identificăm imaginile cu copii care au nevoie de ajutor imediat.

Șicare au fost beneficiile proiectului, pentru evaluatorii umani din cadrul NCMEC, care prelucrează rapoartele primite prin CyberTipline și analizează conținut CSAM?


Prin acest instrument de detectare a materialelor cu abuzuri sexuale asupra copiilor, personalul nostru n-a fost nevoit să vadă în mod repetat aceleași imagini. Acestea sunt imagini ale unor copii abuzați sexual, care, acum, pot fi adulți. Aceste imagini rămân online și contribuie la victimizarea continuă a persoanelor respective. Așadar, prin faptul că pot eticheta acele imagini, ei se pot concentra asupra copiilor abuzați sexual recent, eliminând imaginile ilegale.

Aceasta este misiunea colegilor noștri. Ei vor să îi ajute pe acei copii.Vorbim de o îmbunătățirea substanțială a condițiilor de lucru pentru angajații noștri, care nu mai sunt expuși în mod repetat cu la niște materiale despre care se știe că sunt dăunătoare.

Cum ajută aceste eforturi companiile de tehnologie să combată acest tip de materiale disponibile online?


Știm că Google le oferă companiilor o tehnologie de detectare a materialelor CSAM, pentru a susține eforturile globale de combatere a CSAM, iar API-ul Hash Matching are un impact direct asupra multor organizații, pe lângă NCMEC. Toate companiile de tehnologie beneficiază de un proces mai optimizat și mai eficient, prin intermediul National Center. Rapoartele CyberTipline sunt abordate și gestionate în timp util și cu mai multă eficiență, decât în lipsa acestui instrument.

NCMEC reprezintă o resursă comună pentru companiile de tehnologie, autorități victime și familiile lor. Avem o perspectivă unică asupra problemelor și soluțiilor. Datorită serviciului CyberTipline, suntem la curent cu materialele CSAM noi sau mai vechi, care circulă online. Toate aceste rapoarte sunt puse la dispoziția autorităților. Nu trebuie să pierdem din vedere faptul că, la urma urmei, este vorba despre copii în carne și oase, care au căzut victime exploatării sexuale.

Știm că au fost identificați peste 20.000 de copii care au fost abuzați sexual, iar abuzul asupra lor a fost imortalizat într-un videoclip sau o imagine. Aceștia, unii, încă minori, alții, deja adulți, conștientizează din plin faptul că sunt, în continuare, victime. De aceea, este atât de important să facem tot posibilul pentru a reduce răspândirea acestor imagini.

Un lucru ar putea fi neclar pentru cetățeni: poate exista tendința de a ignora materialele CSAM cunoscute, deoarece imaginile pot fi considerate „vechi” sau „recirculate”. Tragem mereu semnale de alarmă, pentru a le aminti oamenilor că este vorba despre copii în carne și oase, că acele peste 20.000 de persoane încearcă să se vindece și să reia controlul asupra propriei vieți. Este o mare consolare pentru ei faptul că organizații precum Google depun toate eforturile pentru a elimina imaginile care ilustrează cele mai grele momente din viața lor.

Dacă întâlnești imagini sau materiale online cu abuzuri sexuale asupra copiilor, poți să le raportezi către National Center for Missing and Exploited Children (NCMEC) sau unei autorități competente de oriunde din lume.

Google și-a luat angajamentul de a combate materialele online care conțin exploatare și abuzuri sexuale asupra copiilor și de a împiedica folosirea serviciilor sale pentru a distribuirea unor astfel de materiale (CSAM). Află mai multe despre acest subiect, pe site-ul Protecting Children.

Află cum contribuie Google la protecția tuturor utilizatorilor online!