NCMEC, Google, at Teknolohiya sa Pag-hash ng Larawan
Sa United States, nakakatanggap ang National Center for Missing & Exploited Children (NCMEC) ng milyon-milyong ulat ng online na materyal na nagpapakita ng sekswal na pang-aabuso sa bata (CSAM) kada taon. Tinatalakay ni Michelle DeLaune, ang Senior Vice President at Chief Operating Officer ng NCMEC, ang tungkol sa pagbabago ng organisasyon, kung paano kumikilos ang mga kumpanya ng tech para labanan ang CSAM, at ang Hash Matching API ng Google.
Puwede mo bang sabihin sa amin ang tungkol sa NCMEC at kung ano ang iyong tungkulin?
Higit 20 taon na akong nasa NCMEC, kaya direkta kong nasaksihan ang pagbabago ng organisasyon at ang mga pagsubok at banta sa ating kabataan at kanilang kaligtasan. Sinimulan ko ang aking career bilang isang analyst sa CyberTipline.
Ginawa at inilunsad ang CyberTipline noong 1998 bilang paraan para sa mga miyembro ng publiko na iulat ang mga potensyal na insidente ng pananamantala sa mga bata. Sa panahong iyon, nakakatanggap kami ng mga ulat mula sa mga magulang na nag-aalalang hindi angkop na nakikipag-usap ang isang nasa hustong gulang sa kanilang anak online, at mula sa mga taong nakakita ng mga website na naglalaman ng CSAM. Nagpasa ng pederal na batas sa United States na inaatas sa mga kumpanya ng tech sa US na iulat sa CyberTipline ang anumang malinaw na insidente ng CSAM sa kanilang mga system.
Sa mga naunang panahon, posible naming malampasan ang 100 ulat ng pananamantala sa mga bata sa isang linggo. Natanggap namin ang aming unang ulat mula sa isang kumpanya ng tech noong 2001. Sa 2021, nakatanggap na kami ng humigit-kumulang 70,000 bagong ulat araw-araw. Mula sa publiko ang ilan sa mga ito, pero isinusumite ng mga kumpanya ng tech ang karamihan sa aming mga ulat.
Paano tinutulungan ng NCMEC ang mga online na kumpanya na labanan ang CSAM?
Hindi inaatas ng batas na gumawa ng anumang proactive na pagsisikap ang mga kumpanya. Kung may natukoy silang content na CSAM o nalaman nila ang tungkol dito, kailangan nila itong iulat. Iyon ang humihimok sa nakakaimpluwensyang paglaking nakita namin sa CyberTipline sa paglipas ng mga taon. Pero sa nakaraang limang taon, pinakamataas ang paglaki sa mga ulat. Ina-attribute ang pagdaming iyon sa mga pagsisikap na boluntaryong ginagawa ng mga kumpanya ng tech para maagap na ma-detect, alisin, at iulat ang CSAM.
Ang isa sa mga flagship na programang pinapatakbo namin sa National Center for Missing & Exploited Children ay ang mga platform sa pagbabahagi ng hash, parehong para makapag-ambag ang industriya at isa pa para makapag-ambag ang mga piling NGO. Sa pamamagitan ng platform sa pagbabahagi ng hash ng NGO, nagbibigay ang NCMEC sa mga interesadong kumpanya ng tech ng higit sa limang milyong hash value ng mga kinumpirma at tatlong beses na sinuring CSAM para tulungan sila sa kanilang mga pagsisikap para labanan ang CSAM sa kanilang mga network. Maraming malaking kumpanya, kasama ang Google, ang kumuha ng listahang ito para sa kanilang mga sarili at maagap na kumikilos para alisin ang CSAM mula sa kanilang mga platform. Nagbibigay-daan din ang listahang ito sa iba pang mapagkakatiwalaang NGO na nagsisilbi sa mga bata para ibigay ang kanilang mga hash sa industriya ng tech sa pamamagitan ng hash platform ng NCMEC, para subukang i-minimize ang pangangailangang pumunta ang isang kumpanya ng tech sa bawat NGO.
Nag-aalok dun kami ng Industry Hash Sharing platform, na nagbibigay-daan sa mga kumpanya na ibahagi ang kanilang mga sariling hash ng CSAM sa isa't isa. Tinitiyak naming ang anumang kumpanyang handa at may kakayahang tukuyin ang materyal na ito ay maroon ng lahat ng tool na kailangan nito para gawin ito at na maibabahagi ng mga kumpanya ang kanilang mga sariling hash ng CSAM sa isa't isa. Ang Google ay ang pinakamalaking contributor sa platform na ito na may humigit-kumulang 74% ng kabuuang bilang ng mga hash sa listahan.
Tulad ng maiisip mo sa dami ng mga ulat na natatanggap namin ngayon, nakikita naming iniuulat nang maraming beses ang mga parehong larawan. Lubos na nauunawaan ito dahil gumagamit ang mga kumpanya ng mga hash value para i-detect ang kilalang materyal, pero habang dumarami ang materyal, mas mahalagang matukoy ng NCMEC ang bagong materyal na ginawa at ibinahagi online.
Nakatulong ang Hash Matching API ng Google sa NCMEC na bigyang-priyoridad ang mga ulat sa CyberTipline. Puwede mo ba sabihin sa amin ang higit pa tungkol sa kung paano nagsimula ang proyektong ito?
Dahil sa tagumpay ng programa sa pagbabahagi ng hash, may bagong hamon na nabuo: maraming ulat na may dalang malalaking hamon. Walang kakayahang magkalkula ng ganitong dami ang isang non-profit gaya ng NCMEC. Kaya nasasabik at nagpapasalamat kami para sa tulong ng Google sa pagtulong na buuin ang tool na Hash Matching API.
Noong 2020, nakatanggap kami ng 21 milyong ulat sa CyberTipline, pero sa bawat ulat na iyon, posibleng may maraming larawan at video. Sa katanuyan, naglalaman ang 21 milyong ulat na iyon ng halos 70 milyong larawan at video ng sekswal na pang-aabuso sa bata. Malinaw na may pag-duplicate sa daming iyon, at kahit na madali para sa NCMEC na i-detect ang mga eksaktong tugma, hindi namin made-detect ang mga katulad na tugma nang maramihan at real time para matukoy at mabigyang-priyoridad ang mga larawang hindi pa nakita dati. At mahalaga iyon kapag sinusubukan naming tukuyin ang mga batang kasalukuyang nakakaranas ng sekswal na pang-aabuso.
Ano ang mga benepisyong dinala ng Hash Matching API sa NCMEC?
Napakahalaga ng aming trabaho, ang kumuha ng kritikal na impormasyon at ipadala ito sa tagapagpatupad ng batas sa pinakamabilis na paraang posible. Ang isa sa mga benepisyo ng tool na ito ay binibigyan kami nito ng bagong paraan ng pagdaragdag ng napakalaking value sa mga ulat sa CyberTipline.
May programa kami ng trabaho kung saan sinusuri namin ang bawat larawan at video ng sekswal na pang-aabuso sa bata at nilalagyan namin ito ng label. Halimbawa, ‘Ito ay isang CSAM’, ‘Ito ay hindi isang CSAM’, o ‘Mahirap tukuyin ang edad ng bata o tao.’ Pero gaya ng maiisip mo, sa 70 milyong file sa nakaraang taon lamang, hindi namin malalagyan ng label ang lahat ng iyon. Nagbibigay-daan sa amin ang API na ito na gumawa ng paghahambing. Kapag nag-tag kami ng isang file, nagbibigay-daan sa amin ang API na tukuyin ang lahat ng visual na magkakatulad na file na tina-tag namin nang real time. Bilang resulta, na-tag namin ang higit sa 26 na milyong larawan.
Nakakatulong ito sa aming magdagdag pa ng kalidad sa mga ulat na ipinapadala namin sa tagapagpatupad ng batas para mabigyang-priyoridad nila kung aling mga ulat ang una nilang susuriin. Nakakatulong din ito sa aming tukuyin kung aling mga larawan ang hindi pa nakita dati. Karaniwang naglalaman ang mga larawang iyon ng batang sekswal na inaabuso sa isang panig ng mundo. Kung may hinahanap tayong karayom sa isang kumpol ng dami, sa sitwasyong ito, ang karayom na iyon ay ang batang kailangang sagipin. Nagbigay-daan sa amin ang tool ng Google na magtuon sa mga larawang iyon ng mga batang nangangailangan ng agarang tulong.
At paano nito naapektuhan ang kapakanan ng mga taong tagasuri ng NCMEC na nagpoproseso ng mga ulat mula sa CyberTipline at sumusuri sa content ng CSAM?
Binawasan ng tool sa pag-detect ng CSAM na ito ang pangangailangan ng aming mga tauhan na tingnan ang mga parehong larawan nang paulit-ulit. May mga mas matatandang larawan ng mga batang sekswal na inaabuso kung saan ang mga bata ay posibleng ganap nang nasa hustong gulang sa kasalukuyan. Patuloy na nananatili online ang mga larawang ito at nakakaapekto sa patuloy na pagiging biktima ng mga indibidwal na iyon. Sa pag-tag sa mga larawang iyon, nagbibigay-daan ito sa kanilang tumuon sa mga batang kamakailang nakaranas ng sekswal na pang-aabuso habang inaalis ang mga ilegal na larawan para hindi na ito makita.
Kaya narito ang aming mga tauhan; gusto nilang tulungan ang mga batang iyon. Isa itong makabagong pagpapahusay sa kakayahan ng aming mga tauhan na tumuon sa kapakanan at hindi paulit-ulit na maharap sa parehong kilalang mapanganib na materyal.
Sa kabuuan, paano nakakatulong ang trabahong ito sa mga kumpanya ng tech na nilalabanan ang ganitong uri ng materyal online?
Alam naming nagbibigay ang Google ng teknolohiya sa pag-detect ng CSAM sa mga kumpanya para tumulong na suportahan ang pandaigdigang laban sa CSAM at may direktang epekto ang mismong Hash Matching API sa marami bukod pa sa NCMEC. Ikinagagalak ng lahat ng kumpanya ng tech ang benepisyo ng mas madali at mahusay na proseso sa National Center. Tinutugunan at pinapangasiwaan ang mga ulat sa CyberTipline sa mas mabilis na paraan at nang may higit na value kumpara sa kung wala kami ng tool na ito.
Ang NCMEC ay isang pangunahing resource para sa mga kumpanya ng tech, pagpapatupad ng batas, mga survivor, at kanilang mga pamilya. Mayroon kaming labis na natatanging pananaw na ginagamit para tingnan ang mga problema at solusyon. Dahil sa CyberTipline, lubos ang aming kaalaman sa mga bagong gawa at umiiral na CSAM na kumakalat online. Ginagawang available sa tagapagpatupad ng batas ang lahat ng ulat na ito. Hindi natin dapat kailanman kalimutan na sa dulo nito, mayroon tayong mga tunay na batang sekswal na nabiktima at sinamantala.
Alam namin na may higit sa 20,000 natukoy na batang sekswal na naabuso at nagpapatuloy ang alaala ng pang-aabuso, sa isang video man o larawan. Ang mga survivor na ito, kung saan ang ilan ay mga bata pa rin at ang ilan ay nasa hustong gulang na, ay lubos na may kamalayan sa hinaharap nilang patuloy na pagiging biktima. Kaya mahalagang gawin namin ang magagawa namin para i-minimize at bawasan ang pagpapakalat sa mga larawang ito.
Ang isang bagay na posibleng hindi malinaw sa publiko ay puwedeng magkaroon ng posibilidad na i-dismiss ang kilalang CSAM, dahil posibleng ituring ang mga larawang iyon bilang "luma" o "kumakalat muli". Palagi naming pinapaalala sa mga tao na mga tunay na bata ang mga ito – na sinusubukan ng 20,000 indibidwal na iyon na maghilom at magkaroon ulit ng kontrol sa kanilang mga buhay. Lubos silang napapanatag na malamang ginagawa ng mga kumpanya gaya ng Google ang bawat pagsisikap para alisin ang mga larawang sumasalamin sa mga pinakamasamang sandali ng kanilang mga buhay.
Kung may makita kang larawan o materyal ng sekswal na pang-aabuso sa bata online, puwede mo itong iulat sa National Center for Missing and Exploited Children (NCMEC), o sa naaaangkop na awtoridad sa iba't ibang panig ng mundo.
Nakatuon ang Google na labanan ang online na sekswal na pang-aabuso at pananamantala sa bata at pigilan ang paggamit ng aming mga serbisyo sa pagpapalaganap ng materyal na nagpapakita ng sekswal na pang-aabuso sa bata (child sexual abuse material o CSAM). Puwede kang matuto pa tungkol dito sa aming website sa Pagprotekta sa Mga Bata.
Mga pagsulong sa cybersecurity
Alamin kung paano namin napapanatiling ligtas ang mas maraming tao online kaysa sa sinupaman sa mundo.
Matuto pa