Pumunta sa Content

hero-ncmec.jpg

NCMEC, Google, at Teknolohiya ng Pag-hash ng Larawan

Sa United States, nakakatanggap ang National Center for Missing & Exploited Children (NCMEC) ng milyon-milyong ulat ng online na materyal na nagpapakita ng sekswal na pang-aabuso sa bata (CSAM) kada taon. Tinatalakay ni Michelle DeLaune, ang Senior Vice President at Chief Operating Officer ng NCMEC, ang tungkol sa pagbabago ng organisasyon, kung paano kumikilos ang mga kumpanya ng tech para labanan ang CSAM, at ang Hash Matching API ng Google.

I-share

Puwede mo ba kaming kuwentuhan tungkol sa NCMEC at kung ano ang tungkulin mo?

Nagtrabaho ako sa NCMEC nang mahigit 20 taon, kaya nasaksihan ko mismo ang ebolusyon ng organisasyon at mga hamon at banta sa ating mga anak at sa kaligtasan nila. Sinimulan ko ang career ko rito bilang CyberTipline analyst.

Binuo at inilunsad ang CyberTipline noong 1998 bilang paraan para makapag-ulat ang mga miyembro ng publiko ng mga potensyal na insidente ng pananamantala sa bata. Sa panahong iyon, nakakatanggap kami ng mga ulat mula sa mga magulang na nag-aalalang hindi angkop na nakikipag-usap ang isang nasa hustong gulang sa kanilang anak online at mga taong nakakita ng mga website na naglalaman ng CSAM. Nagpasa ng pederal na batas sa United States na nag-aatas sa mga kumpanya ng teknolohiya sa US na iulat sa CyberTipline ang anumang malinaw na insidente ng CSAM sa kanilang mga system.

Sa mga unang araw, posible naming malampasan ang 100 ulat ng pananamantala sa bata sa isang linggo. Natanggap namin ang aming unang ulat mula sa isang kumpanya ng teknolohiya noong 2001. Sa 2021, nakatanggap na kami ng humigit-kumulang 70,000 bagong ulat araw-araw. Mula sa publiko ang ilan sa mga ito, pero isinusumite ng mga kumpanya ng teknolohiya ang karamihan sa aming mga ulat.

ncmec-image-1.jpg

Paano tinutulungan ng NCMEC ang mga online na kumpanya na labanan ang CSAM?

Hindi inaatas ng batas na magkaroon ang mga kumpanya ng proactive na pagsisikap. Kung may natukoy silang content na CSAM o nalaman nila ang tungkol dito, kailangan nila itong iulat. Iyon ang humihimok sa nakakaimpluwensyang paglaking nakita namin sa CyberTipline sa paglipas ng mga taon. Pero sa nakaraang limang taon, pinakamataas ang paglaki sa mga ulat. Maiuugnay ang pagdaming iyon sa mga pagsisikap na boluntaryong ginagawa ng mga kumpanya ng tech para maagap na ma-detect, alisin, at iulat ang CSAM.

Ang isa sa mga flagship na programang pinapatakbo namin sa National Center for Missing & Exploited Children ay ang mga platform sa pag-share ng hash, na may nakalaan para makapag-ambag ang industriya at para makapag-ambag ang mga piling NGO. Sa pamamagitan ng platform sa pag-share ng hash ng NGO, nagbibigay ang NCMEC sa mga interesadong kumpanya ng tech ng higit sa limang milyong hash value ng mga kinumpirma at tatlong beses na sinuring CSAM para tulungan sila sa kanilang mga pagsisikap para labanan ang CSAM sa kanilang mga network. Maraming malaking kumpanya, kasama ang Google, ang kumuha ng listahang ito para sa kanilang mga sarili at maagap na kumikilos para alisin ang CSAM mula sa kanilang mga platform. Nagbibigay-daan din ang listahang ito sa iba pang mapagkakatiwalaang NGO na nagsisilbi sa mga bata para ibigay ang kanilang mga hash sa industriya ng tech sa pamamagitan ng hash platform ng NCMEC, para subukang i-minimize ang pangangailangang pumunta ang isang kumpanya ng tech sa bawat NGO.

Nag-aalok din kami ng platform sa Pag-share ng Hash para sa Industriya, na nagbibigay-daan sa mga kumpanya na i-share ang kanilang mga sariling hash ng CSAM sa isa't isa. Tinitiyak naming ang anumang kumpanyang handa at may kakayahang tukuyin ang materyal na ito ay mayroon ng lahat ng tool na kailangan ng mga ito para gawin iyon at ma-share ng mga kumpanya ang kanilang mga sariling hash ng CSAM sa isa't isa. Ang Google ang pinakamalaking contributor sa platform na ito na may humigit-kumulang 74% ng kabuuang bilang ng mga hash sa listahan.

Tulad ng maiisip mo sa dami ng mga ulat na natatanggap namin ngayon, nakikita naming maraming beses na inuulat ang mga parehong larawan. Hindi na ito nakakabigla dahil gumagamit ang mga kumpanya ng mga hash value para i-detect ang kilalang materyal, pero habang dumarami ang materyal, mas mahalagang matukoy ng NCMEC ang bagong materyal na ginawa at na-share online.

ncmec-story-image-2.jpg

Nakatulong ang Hash Matching API ng Google para mabigyang-pritoridad ng NCMEC ang mga ulat sa CyberTipline. Puwede mo ba kaming bigyan ng higit pang impormasyon tungkol sa kung paano nagsimula ang proyektong ito?

Dahil sa tagumpay ng programa sa pag-share ng hash, may ganap na bagong hamon na nabuo: malaki rin ang hamong dala ng pagkakaroon ng napakaraming ulat. Walang kakayahang magkalkula ng ganitong dami ang isang non-profit gaya ng NCMEC. Kaya nasasabik at nagpapasalamat kami sa tulong ng Google para buuin ang tool na Hash Matching API.

Noong 2020, nakatanggap kami ng 21 milyong ulat sa CyberTipline, pero posible pang maraming larawan at video sa bawat isa sa mga ulat na iyon. Sa katanuyan, naglalaman ang 21 milyong ulat na iyon ng halos 70 milyong larawan at video ng sekswal na pang-aabuso sa bata. Malinaw na may mga duplicate sa daming iyon, at kahit na madali para sa NCMEC na i-detect ang mga eksaktong tugma, hindi namin made-detect ang mga katulad na tugma nang maramihan at real time para matukoy at mabigyang-priyoridad ang mga larawang hindi pa nakita dati. At mahalaga iyon kapag sinusubukan naming tukuyin ang mga batang aktibong sekswal na inaabuso.

Ano ang mga benepisyong naihatid ng Hash Matching API sa NCMEC?

Napakahalaga ng trabaho naming kumuha ng kritikal na impormasyon at ipadala ito sa tagapagpatupad ng batas sa pinakamabilis na paraang posible. Isa sa mga benepisyo ng tool na ito ay binibigyan kami nito ng bagong paraan ng pagdaragdag ng napakalaking benepisyo sa mga ulat sa CyberTipline.

May programa kami ng trabaho kung saan sinusuri namin ang bawat larawan at video ng sekswal na pang-aabuso sa bata at nilalagyan namin ito ng label. Halimbawa, ‘Ito ay isang CSAM’, ‘Ito ay hindi isang CSAM’, o ‘Mahirap tukuyin ang edad ng bata o tao.’ Pero gaya ng maiisip mo, sa 70 milyong file sa nakaraang taon lamang, hindi namin malalagyan ng label ang lahat ng iyon. Nagbibigay-daan sa amin ang API na ito na gumawa ng paghahambing. Kapag nag-tag kami ng isang file, nagbibigay-daan sa amin ang API na tukuyin ang lahat ng visual na magkakatulad na file na tina-tag namin nang real time. Bilang resulta, nakapa-tag na kami ng higit sa 26 na milyong larawan.

Nakakatulong ito sa aming magdagdag pa ng kalidad sa mga ulat na ipinapadala namin sa tagapagpatupad ng batas para mabigyang-priyoridad nila kung aling mga ulat ang una nilang susuriin. Nakakatulong din ito sa aming tukuyin kung aling mga larawan ang hindi pa nakita dati. Karaniwang naglalaman ang mga larawang iyon ng batang sekswal na inaabuso sa isang panig ng mundo. Kung may hinahanap tayong karayom sa isang kumpol ng dayami, sa sitwasyong ito, ang karayom na iyon ay ang batang kailangang sagipin. Nagbigay-daan sa amin ang tool ng Google na tumuon sa mga larawang iyon ng mga batang nangangailangan ng agarang tulong.

At paano nito naapektuhan ang kapakanan ng mga taong tagasuri ng NCMEC na nagpoproseso ng mga ulat mula sa CyberTipline at sumusuri sa content ng CSAM?

Binawasan ng tool na ito sa pag-detect ng CSAM ang pangangailangang tingnan ng aming mga tauhan ang mga parehong larawan nang paulit-ulit. May mga larawan ng mga batang sekswal na inaabuso kung saan ang mga bata ay posibleng patungo na sa kanilang mga taon bilang nasa hustong gulang. Patuloy na nananatili online ang mga larawang ito at nakakaapekto sa patuloy na pagiging biktima ng mga indibidwal na iyon. Sa pag-tag sa mga larawang iyon, nagbibigay-daan ito sa kanilang tumuon sa mga batang kamakailang nakaranas ng sekswal na pang-aabuso habang inaalis ang mga ilegal na larawan para hindi na iyon makita.

Kaya narito ang aming mga tauhan; gusto nilang tulungan ang mga batang iyon. Isa itong makabagong pagpapahusay sa kakayahan ng aming mga tauhan na tumuon sa kapakanan at hindi paulit-ulit na maharap sa parehong kilalang mapanganib na materyal.

ncmec-story-image-3.jpg

Sa kabuuan, paano nakakatulong ang pagsisikap na ito sa mga kumpanya ng tech na lumalaban sa ganitong uri ng materyal online?

Alam naming nagbibigay ang Google ng teknolohiya sa pag-detect ng CSAM sa mga kumpanya para tumulong na suportahan ang pandaigdigang laban sa CSAM at may direktang epekto ang mismong Hash Matching API sa marami bukod pa sa NCMEC. Ikinagagalak ng lahat ng kumpanya ng tech ang benepisyo ng mas madali at mahusay na proseso sa National Center. Tinutugunan at pinapangasiwaan ang mga ulat sa CyberTipline sa mas mabilis na paraan at nang may higit pang benepisyo kumpara sa kung wala kami ng tool na ito.

Isang pangunahing resource ang NCMEC para sa mga kumpanya ng teknolohiya, tagapagpatupad ng batas, mga survivor, at kanilang mga pamilya. Mayroon kaming labis na natatanging pananaw na ginagamit para tingnan ang mga problema at solusyon. Dahil sa CyberTipline, lubos ang aming kaalaman sa mga bagong gawa at umiiral na CSAM na kumakalat online. Ginagawang available sa tagapagpatupad ng batas ang lahat ng ulat na ito. Dapat ay hindi natin kailanman makalimutang sa dulo nito, mayroon tayong mga tunay na batang sekswal na nabiktima at sinamantala.

May napag-alaman na kaming mahigit 20,000 natukoy na batang sekswal na naabuso at napanatili ang alaala ng pang-aabuso sa kanila sa isang video man o larawan. Ang mga survivor na ito, kung saan ang ilan ay mga bata pa rin at ang ilan ay nasa hustong gulang na, ay lubos na may kamalayan sa hinaharap nilang patuloy na pagiging biktima. Kaya mahalagang gawin namin ang magagawa namin para i-minimize at bawasan ang pagpapakalat sa mga larawang ito.

Ang isang bagay na posibleng hindi malinaw sa publiko ay puwedeng magkaroon ng posibilidad na i-dismiss ang kilalang CSAM, dahil posibleng ituring ang mga larawang iyon bilang "luma" o "ni-recirculate." Palagi naming pinapaalala sa mga tao na mga tunay na bata sila – na sinusubukan ng 20,000 indibidwal na iyon na maghilom at magkaroon ulit ng kontrol sa kanilang mga buhay. Lubos silang napapanatag na malamang ginagawa ng mga kumpanya gaya ng Google ang bawat pagsisikap para alisin ang mga larawang sumasalamin sa pinakamasasamang sandali ng kanilang mga buhay.

Kung may makita kang larawan o materyal ng sekswal na pang-aabuso sa bata online, puwede mo itong iulat sa National Center for Missing and Exploited Children (NCMEC), o sa naaangkop na awtoridad sa iba't ibang panig ng mundo.

Nakatuon ang Google na labanan ang sekswal na pang-aabuso at pananamantala sa bata online at pigilan ang paggamit ng aming mga serbisyo sa pagpapalaganap ng materyal na nagpapakita ng sekswal na pang-aabuso sa bata (child sexual abuse material o CSAM). Puwede mong malaman ang higit pa tungkol dito sa aming website sa Pagprotekta sa Mga Bata.

Bumalik sa itaas ng page