NCMEC, Google, dan Teknologi Hashing Gambar
Di Amerika Serikat, National Center for Missing & Exploited Children (NCMEC) menerima jutaan laporan materi pelecehan seksual terhadap anak-anak (CSAM) online setiap tahunnya. Senior Vice President dan Chief Operating Officer NCMEC, Michelle DeLaune, berbicara tentang perkembangan organisasi ini, upaya perusahaan teknologi untuk mengatasi penyebaran CSAM, dan Hash Matching API dari Google.
Bisakah Anda bercerita lebih banyak tentang NCMEC dan peran Anda?
Saya telah bekerja di NCMEC selama lebih dari 20 tahun. Jadi, saya telah menyaksikan secara langsung perkembangan organisasi ini serta tantangan dan ancaman terhadap anak-anak kita dan keselamatan mereka. Saya memulai karier saya di sini sebagai analis CyberTipline.
CyberTipline dibuat dan diluncurkan pada tahun 1998 sebagai tempat bagi anggota masyarakat untuk melaporkan potensi insiden eksploitasi anak. Pada saat itu, kami menerima laporan dari orang tua yang khawatir bahwa ada orang dewasa yang berbicara tidak pantas kepada anak mereka secara online dan orang-orang yang menemukan situs berisi materi pelecehan seksual terhadap anak-anak (CSAM). Lalu, di Amerika Serikat disahkan hukum federal yang mengharuskan perusahaan teknologi AS untuk melaporkan setiap insiden nyata CSAM di sistem mereka ke CyberTipline.
Dulu, kami mungkin menerima lebih dari 100 laporan eksploitasi anak dalam seminggu. Kami menerima laporan pertama kami dari sebuah perusahaan teknologi pada tahun 2001. Kemudian pada tahun 2021, kami menerima kurang lebih 70.000 laporan baru setiap harinya. Ada laporan yang berasal dari masyarakat, tetapi sebagian besar laporan yang kami terima dikirimkan oleh perusahaan teknologi.
Bagaimana NCMEC membantu perusahaan yang beroperasi secara online melawan CSAM?
Hukum tidak mewajibkan perusahaan untuk melakukan upaya proaktif apa pun. Mereka hanya harus melapor jika mendeteksi atau mengetahui adanya konten CSAM. Hal inilah yang sebenarnya memicu pertumbuhan penting yang kami lihat di CyberTipline dari tahun ke tahun. Namun, jumlah laporan mengalami lonjakan yang signifikan dalam lima tahun terakhir. Lonjakan tersebut dapat dikaitkan dengan upaya sukarela yang dilakukan oleh berbagai perusahaan teknologi untuk mendeteksi, menghapus, dan melaporkan CSAM secara proaktif.
Salah satu program utama yang kami jalankan di National Center for Missing & Exploited Children adalah platform berbagi hash, yang dapat digunakan perusahaan dan LSM tertentu untuk ikut berkontribusi. Melalui platform berbagi hash untuk LSM, NCMEC menyediakan lebih dari lima juta nilai hash CSAM yang telah melalui proses identifikasi dan tiga kali verifikasi bagi perusahaan teknologi yang ingin mendapatkan bantuan untuk memerangi CSAM di jaringan mereka. Banyak perusahaan besar, termasuk Google, telah memanfaatkan daftar hash ini dan mengambil langkah proaktif untuk menghapus CSAM dari platform mereka. Daftar ini juga memungkinkan LSM terkemuka lainnya yang melayani anak-anak untuk berbagi hash dengan perusahaan teknologi melalui platform hash NCMEC. Dengan begitu, perusahaan teknologi tidak perlu lagi menghubungi LSM satu per satu.
Kami juga menawarkan platform Berbagi Hash Industri yang memungkinkan perusahaan tertentu saling membagikan hash CSAM mereka. Kami memastikan bahwa setiap perusahaan yang bersedia dan mampu secara proaktif mendeteksi materi ini, memiliki semua alat yang diperlukan untuk melakukannya dan dapat saling berbagi hash CSAM mereka. Google adalah kontributor hash terbesar pada platform ini dengan sekitar 74% dari total jumlah hash yang ada di daftar.
Seperti yang bisa dibayangkan, dengan volume laporan yang kami terima sekarang, kami melihat banyak gambar yang sama dilaporkan berkali-kali. Hal ini sepenuhnya wajar karena perusahaan menggunakan nilai hash untuk mendeteksi materi yang telah diidentifikasi. Namun, seiring meningkatnya jumlah materi yang telah diidentifikasi, NCMEC lebih mengutamakan identifikasi materi baru yang dibuat dan dibagikan secara online.
Hash Matching API Google telah membantu NCMEC memilah prioritas laporan CyberTipline. Dapatkah Anda menceritakan lebih banyak bagaimana project ini dimulai?
Keberhasilan program berbagi hash telah menciptakan tantangan yang benar-benar baru: volume laporan yang sulit ditangani. Lembaga nonprofit seperti NCMEC tidak memiliki fasilitas komputasi dengan skala yang memadai untuk menangani besarnya volume laporan ini. Oleh karena itu, kami sangat berterima kasih atas bantuan Google dalam pembuatan alat Hash Matching API.
Pada tahun 2020, kami menerima 21 juta laporan CyberTipline dan masing-masing laporan tersebut mungkin berisi banyak gambar dan video. Dalam 21 juta laporan tersebut, ada hampir 70 juta gambar dan video pelecehan seksual terhadap anak-anak. Tentu saja, ada konten yang terduplikasi dalam volume laporan tersebut. Meski mudah bagi NCMEC untuk mendeteksi konten yang sama persis, kami tidak dapat melakukannya dalam skala besar dan secara real time untuk mengidentifikasi dan memprioritaskan gambar pelecehan seksual yang baru. Hal ini sangat penting saat kami mencoba mengidentifikasi anak-anak yang sedang mengalami pelecehan seksual.
Manfaat apa yang telah diberikan Hash Matching API kepada NCMEC?
Kami memiliki tugas yang sangat penting, yakni menyerahkan informasi penting yang kami dapatkan ini kepada pihak penegak hukum secepat mungkin. Salah satu manfaat yang kami dapatkan dari alat ini adalah kami memiliki cara baru untuk menyajikan laporan CyberTipline dengan lebih baik.
Program kerja yang kami jalankan termasuk mengidentifikasi gambar dan video pelecehan seksual terhadap anak-anak serta melabelinya. Contoh labelnya termasuk ‘Ini konten CSAM’, ‘Ini bukan konten CSAM’, atau ‘Sulit mengidentifikasi usia anak atau orang dewasa dalam konten ini’. Namun, seperti yang dapat Anda bayangkan, kami tidak akan dapat melabeli semua file, yang tahun lalu saja mencapai 70 juta file. API ini memungkinkan kami melakukan perbandingan. Saat kami memberi tag ke satu file, kami dapat menggunakan API ini untuk mengidentifikasi semua file yang mirip secara visual sehingga dapat kami beri tag juga secara real time. Sebagai hasilnya, kami dapat memberi tag ke lebih dari 26 juta gambar.
Hal ini membantu kami mengirimkan laporan yang lebih berkualitas kepada lembaga penegak hukum sehingga mereka dapat menentukan laporan yang akan ditinjau terlebih dahulu. API ini juga membantu kami mengidentifikasi gambar mana yang sepenuhnya baru. Gambar tersebut sering kali menampilkan anak yang sedang mengalami pelecehan seksual di suatu tempat di dunia. Proses ini bagaikan mencari jarum di tumpukan jerami. Dalam kasus ini, jarum tersebut adalah anak yang harus diselamatkan. Dengan alat dari Google, kami dapat fokus mengidentifikasi gambar yang menampilkan anak-anak yang membutuhkan bantuan segera.
Bagaimana dampak teknologi ini terhadap kesehatan mental peninjau manual NCMEC yang memproses laporan dari CyberTipline dan menganalisis konten CSAM?
Alat deteksi CSAM ini telah mengurangi keharusan staf kami untuk melihat gambar yang sama berulang kali. Ada gambar yang menampilkan pelecehan seksual terhadap anak-anak yang mungkin kini telah memasuki usia dewasa. Gambar tersebut tersebar secara permanen di internet dan membuat korban pelecehan tersebut mengalami eksploitasi seksual berkelanjutan. Kemampuan untuk memberi tag pada gambar tersebut membantu staf kami berfokus mengidentifikasi anak-anak yang baru mengalami pelecehan seksual sekaligus menghapus gambar ilegal agar tidak beredar lagi di internet.
Alasan staf kami bekerja adalah bahwa mereka ingin membantu anak-anak tersebut. Teknologi ini merupakan peningkatan yang luar biasa karena telah membantu staf kami menjaga kesehatan mental mereka dan tidak terpapar berulang kali oleh materi pelecehan yang telah diidentifikasi.
Bagaimana upaya ini membantu perusahaan teknologi secara keseluruhan memberantas jenis materi ini secara online?
Kami tahu bahwa Google menyediakan teknologi deteksi CSAM bagi perusahaan untuk membantu mendukung gerakan global memberantas CSAM. Di sisi lain, Hash Matching API itu sendiri telah memberikan dampak langsung kepada banyak pihak, bukan hanya NCMEC. Semua perusahaan teknologi dimudahkan oleh proses yang lebih sederhana dan efisien di NCMEC. Laporan CyberTipline ditindaklanjuti dan ditangani dengan lebih cepat dan berkualitas dibandingkan saat kami tidak memiliki alat ini.
NCMEC menjadi sumber daya sentral bagi perusahaan teknologi, lembaga penegak hukum, dan penyintas serta keluarga mereka. Kami memiliki sudut pandang yang unik saat menangani masalah dan mencari solusi. Berkat CyberTipline, kami dapat mendeteksi CSAM yang lama dan baru yang beredar di internet. Semua laporan ini tersedia untuk lembaga penegak hukum. Kita tidak boleh lupa bahwa ini masalah yang nyata terjadi, ada anak-anak yang telah menjadi korban eksploitasi seksual.
Kami telah mengidentifikasi lebih dari 20.000 anak-anak yang telah mengalami pelecehan seksual dan pelecehan tersebut diabadikan dalam bentuk video atau gambar. Beberapa penyintas ini masih anak-anak dan beberapa lainnya tentunya saat ini sudah dewasa. Mereka menyadari bahwa mereka masih berpotensi mengalami eksploitasi berkelanjutan sebagai korban pelecehan seksual. Itulah mengapa sangat penting bagi kami untuk berupaya meminimalkan dan mengurangi peredaran gambar-gambar tersebut.
Satu hal yang mungkin tidak jelas bagi publik adalah adanya kecenderungan untuk mengabaikan CSAM yang sudah diketahui, karena gambar-gambar tersebut mungkin dianggap “lama” atau “beredar ulang”. Kami terus mengingatkan orang-orang bahwa ini adalah anak-anak sungguhan—bahwa lebih dari 20.000 individu tersebut sedang berusaha pulih dan mendapatkan kembali kendali atas hidup mereka. Mereka merasa sangat terbantu karena mengetahui bahwa perusahaan seperti Google melakukan segala upaya untuk menghapus gambar yang membeberkan momen terburuk dalam hidup mereka.
Jika melihat gambar atau materi pelecehan seksual terhadap anak-anak di internet, Anda dapat melaporkannya ke National Center for Missing and Exploited Children (NCMEC), atau ke otoritas yang berwenang di seluruh dunia.
Google berkomitmen untuk memberantas pelecehan seksual dan eksploitasi terhadap anak-anak secara online, serta mencegah penggunaan layanan kami untuk menyebarluaskan materi pelecehan seksual terhadap anak-anak (CSAM). Anda dapat mempelajari hal ini lebih lanjut di situs Melindungi Anak-Anak kami.