NCMEC, Google, dan Teknologi Hashing Gambar


Di Amerika Serikat, National Center for Missing and Exploited Children (NCMEC) menerima jutaan laporan materi pelecehan seksual terhadap anak-anak (CSAM) online setiap tahunnya. Senior Vice President dan Chief Operating Officer NCMEC, Michelle DeLaune, berbicara tentang perkembangan organisasi, upaya perusahaan teknologi untuk mengatasi penyebaran CSAM, dan Hash Matching API dari Google.

Bisakah Anda menceritakan lebih banyak tentang NCMEC dan peran Anda?


Saya telah bekerja di NCMEC selama lebih dari 20 tahun. Jadi, saya telah menyaksikan secara langsung perkembangan organisasi, serta tantangan dan ancaman terhadap anak-anak kita dan keselamatan mereka. Saya memulai karier sebagai analis CyberTipline.

CyberTipline dibuat dan diluncurkan pada tahun 1998 sebagai tempat bagi anggota masyarakat untuk melaporkan potensi insiden eksploitasi anak. Pada saat itu, kami menerima laporan dari orang tua yang khawatir bahwa ada orang dewasa yang berbicara tidak pantas kepada anak mereka secara online dan orang-orang yang menemukan situs web berisi CSAM. Kemudian hukum federal disahkan di Amerika Serikat yang mengharuskan perusahaan teknologi AS untuk melaporkan setiap insiden nyata CSAM di sistem mereka ke CyberTipline.

Dulu, kami dapat menerima lebih dari 100 laporan eksploitasi anak dalam seminggu. Kami menerima laporan pertama kami dari perusahaan teknologi pada tahun 2001. Kemudian pada tahun 2021, kami menerima kurang lebih 70.000 laporan baru setiap harinya. Sejumlah laporan ini berasal dari masyarakat, tetapi sebagian besar laporan yang kami terima dikirimkan oleh perusahaan teknologi.

Bagaimana NCMEC membantu perusahaan yang beroperasi secara online melawan CSAM?


Hukum tidak mewajibkan perusahaan melakukan upaya proaktif apa pun. Sederhananya, jika mereka mendeteksi atau mengetahui adanya konten CSAM, mereka harus melaporkannya. Hal ini sangat berpengaruh pada pertumbuhan penting yang kami lihat di CyberTipline dari tahun ke tahun. Namun, jumlah laporan yang dikirimkan mengalami lonjakan yang signifikan dalam lima tahun terakhir. Lonjakan tersebut dapat dikaitkan dengan upaya sukarela yang dilakukan oleh berbagai perusahaan teknologi untuk mendeteksi, menghapus, dan melaporkan CSAM secara proaktif.

Salah satu program utama yang kami jalankan di National Center for Missing and Exploited Children adalah platform berbagi hash, yang dapat digunakan perusahaan di industri dan LSM tertentu untuk ikut berkontribusi. Melalui platform berbagi hash untuk LSM, NCMEC menyediakan lebih dari lima juta nilai hash CSAM yang telah melalui proses identifikasi dan tiga kali verifikasi, bagi perusahaan teknologi yang ingin mendapatkan bantuan untuk memerangi CSAM di jaringan mereka. Banyak perusahaan besar, termasuk Google, telah memanfaatkan daftar hash ini dan mengambil langkah proaktif untuk menghapus CSAM dari platform mereka. Daftar ini juga memungkinkan LSM terkemuka lainnya yang melayani anak-anak untuk berbagi hash dengan perusahaan teknologi melalui platform hash NCMEC. Dengan begitu, perusahaan teknologi tidak perlu lagi menghubungi LSM satu per satu.

Kami juga menawarkan platform Berbagi Hash Industri yang memungkinkan perusahaan tertentu saling membagikan hash CSAM mereka. Kami memastikan bahwa setiap perusahaan yang bersedia dan mampu secara proaktif mendeteksi materi ini, memiliki semua alat yang diperlukan untuk melakukannya dan dapat saling berbagi hash CSAM mereka. Google adalah kontributor hash terbesar pada platform ini dengan sekitar 74% dari total jumlah hash dalam daftar.

Mengingat besarnya volume laporan yang kami terima saat ini, kami melihat banyak gambar yang sama dilaporkan beberapa kali. Hal ini sepenuhnya wajar karena perusahaan menggunakan nilai hash untuk mendeteksi materi yang telah diidentifikasi. Namun, seiring meningkatnya jumlah materi yang telah diidentifikasi, NCMEC lebih mengutamakan identifikasi materi baru yang telah diproduksi dan dibagikan secara online.

Hash Matching API Google telah membantu NCMEC memprioritaskan laporan CyberTipline. Dapatkah Anda menceritakan lebih banyak bagaimana project ini dimulai?


Keberhasilan program berbagi hash telah menciptakan tantangan yang benar-benar baru: volume laporan yang menghadirkan tantangan besar. Lembaga nonprofit seperti NCMEC tidak memiliki fasilitas komputasi dengan skala yang memadai untuk menangani besarnya volume laporan ini. Oleh karena itu, kami sangat berterima kasih atas bantuan Google dalam pembuatan alat Hash Matching API.

Pada tahun 2020, kami telah menerima 21 juta laporan CyberTipline dan setiap laporan tersebut dapat berisi banyak gambar dan video. 21 juta laporan tersebut menyertakan hampir 70 juta gambar dan video pelecehan seksual terhadap anak-anak. Tentu saja, laporan tersebut dapat berisi konten duplikat. Meski mudah bagi NCMEC untuk mendeteksi konten yang sama persis, kami tidak dapat melakukannya dalam skala besar dan secara real time untuk mengidentifikasi dan memprioritaskan gambar pelecehan seksual yang baru. Hal ini sangat penting saat kami mencoba mengidentifikasi anak-anak yang mengalami pelecehan seksual secara berkelanjutan.

Apa manfaat Hash Matching API yang didapatkan NCMEC?


Kami memiliki tugas penting, yakni menyerahkan informasi penting yang kami dapatkan ini kepada pihak penegak hukum secepat mungkin. Salah satu manfaat yang kami dapatkan dari alat ini adalah kami memiliki cara baru untuk menyajikan laporan CyberTipline dengan lebih baik.

Program kerja yang kami jalankan termasuk mengidentifikasi gambar dan video pelecehan seksual terhadap anak-anak serta melabelinya. Contoh labelnya termasuk ‘Ini konten CSAM’, ‘Ini bukan konten CSAM’, atau ‘Sulit mengidentifikasi usia anak atau orang dewasa dalam konten ini’. Namun, seperti yang dapat Anda bayangkan, kami tidak akan dapat melabeli semua file, yang tahun lalu saja mencapai 70 juta file. API ini memungkinkan kami melakukan perbandingan. Saat kami memberi tag ke satu file, kami dapat menggunakan API ini untuk mengidentifikasi semua file dengan gambar serupa, sehingga tag dapat kami tambahkan ke gambar tersebut secara real time. Sebagai hasilnya, kami dapat memberi tag ke lebih dari 26 juta gambar.

Hal ini membantu kami mengirimkan laporan yang lebih berkualitas kepada lembaga penegak hukum, sehingga mereka dapat memprioritaskan laporan yang akan ditinjau terlebih dahulu. API ini juga membantu kami mengidentifikasi gambar mana yang sepenuhnya baru. Gambar tersebut sering kali menampilkan anak yang mengalami pelecehan seksual di tempat tertentu di dunia. Proses ini bagaikan mencari jarum di tumpukan jerami. Dalam kasus ini, jarum tersebut adalah anak yang harus diselamatkan. Dengan alat dari Google, kami dapat fokus mengidentifikasi gambar yang menampilkan anak-anak yang membutuhkan bantuan segera.

Bagaimana dampak teknologi ini terhadap kesehatan mental peninjau manual NCMEC yang memproses laporan dari CyberTipline dan menganalisis konten CSAM?


Alat deteksi CSAM ini telah mengurangi keharusan staf kami untuk melihat gambar yang sama berulang kali. Ada gambar yang menampilkan pelecehan seksual terhadap anak-anak yang mungkin kini telah memasuki usia dewasa. Gambar tersebut tersebar ulang di internet dan membuat korban pelecehan tersebut mengalami eksploitasi seksual berkelanjutan. Kemampuan untuk memberi tag pada gambar tersebut membantu staf kami berfokus mengidentifikasi anak-anak yang baru mengalami pelecehan seksual sekaligus menghapus gambar ilegal agar tidak beredar lagi di internet.

Itulah mengapa staf kami ingin membantu anak-anak tersebut. Teknologi ini merupakan peningkatan yang luar biasa karena telah membantu staf kami menjaga kesehatan mental mereka dan terhindar dari paparan materi pelecehan yang telah diidentifikasi berulang kali.

Bagaimana upaya ini membantu perusahaan teknologi secara keseluruhan memberantas materi sejenis secara online?


Kami tahu bahwa Google menyediakan teknologi deteksi CSAM bagi perusahaan untuk membantu mendukung gerakan global memberantas CSAM. Di sisi lain, Hash Matching API itu sendiri telah memberikan dampak langsung pada banyak perusahaan, tidak hanya NCMEC. Semua perusahaan teknologi dimudahkan oleh proses yang disederhanakan dan lebih efisien di NCMEC. Laporan CyberTipline ditindaklanjuti dan ditangani dengan cara yang lebih tepat waktu dan berkualitas dibandingkan saat kami tidak memiliki alat ini.

NCMEC menjadi sumber materi bagi perusahaan teknologi, lembaga penegak hukum, penyintas dan keluarga mereka. Kami memiliki sudut pandang yang unik saat menangani masalah dan mencari solusi. Berkat CyberTipline, kami dapat mengetahui CSAM lama maupun baru yang beredar di internet. Semua laporan ini tersedia untuk lembaga penegak hukum. Kita tidak boleh lupa bahwa ini masalah yang nyata terjadi, ada anak-anak yang telah menjadi korban eksploitasi seksual.

Kami telah mengidentifikasi lebih dari 20.000 anak-anak yang telah mengalami pelecehan seksual dan pelecehan tersebut diabadikan dalam bentuk video atau gambar. Beberapa penyintas ini masih anak-anak dan beberapa lainnya tentunya saat ini sudah dewasa. Mereka menyadari bahwa mereka masih berpotensi mengalami eksploitasi berkelanjutan sebagai korban pelecehan seksual. Itulah alasannya sangat penting bagi kami untuk berupaya meminimalkan dan mengurangi peredaran gambar-gambar tersebut.

Satu hal yang mungkin belum dipahami dengan baik oleh masyarakat adalah mereka cenderung mengabaikan konten CSAM yang sudah diketahui, karena menganggapnya sebagai konten “lama” atau “tersebar ulang”. Kami terus berupaya untuk mengingatkan orang-orang bahwa anak-anak ini korban nyata. Ada lebih dari 20.000 individu yang mencoba menyembuhkan diri dan mendapatkan kembali kendali atas hidup mereka. Mereka dapat merasakan ketenangan setelah mengetahui bahwa perusahaan seperti Google melakukan segala upaya untuk menghapus gambar yang menangkap momen terburuk dalam hidup mereka.

Jika Anda melihat gambar atau materi pelecehan seksual terhadap anak-anak di internet, Anda dapat melaporkannya ke National Center for Missing and Exploited Children (NCMEC), atau otoritas yang berwenang di seluruh dunia

Google berkomitmen untuk memberantas materi pelecehan dan eksploitasi seksual terhadap anak-anak secara online, serta mencegah penggunaan layanan kami untuk menyebarluaskan materi pelecehan seksual terhadap anak-anak (CSAM). Anda dapat mempelajari hal ini lebih lanjut di situs kami terkait Melindungi Anak-Anak.

Kemajuan dalam pengamanan cyber

Pelajari lebih lanjut bagaimana kami melindungi lebih banyak orang di internet dibanding penyedia teknologi lain.

Pelajari lebih lanjut