NCMEC, Google ve Görüntü Karma Oluşturma Teknolojisi
Amerika Birleşik Devletleri'nde, Kayıp ve İstismara Uğramış Çocuklar Ulusal Merkezi (NCMEC) her yıl milyonlarca çocukların cinsel istismarı nitelikli materyal (CSAM) raporu alıyor. NCMEC'nin Kıdemli Başkan Yardımcısı ve Operasyonlardan Sorumlu Genel Müdürü Michelle DeLaune, kuruluşun evriminden, teknoloji şirketlerinin CSAM ile mücadele için nasıl harekete geçtiğinden ve Google'ın Hash Matching API'sinden bahsediyor.
NCMEC hakkında bilgi verebilir misiniz? Kuruluştaki rolünüz nedir?
NCMEC'de 20 yılı aşkın süredir çalışıyorum. Bu süre zarfında kuruluşun gelişimine, çocuklarımızın karşılaştığı zorluklara ve güvenliklerine yönelik tehditlere bizzat tanık oldum. Kariyerime burada CyberTipline analisti olarak başladım.
CyberTipline, 1998'de kamuoyunun çocuk istismarı vakalarını bildirmesi amacıyla kuruldu. O dönemde, yetişkinlerin çocuklarıyla internette uygunsuz şekilde konuştuğundan endişe duyan ebeveynlerden ve CSAM içeren web siteleriyle karşılaşan kişilerden raporlar alıyorduk. Ardından ABD'de, ABD'li teknoloji şirketlerinin sistemlerinde görünen çocuk cinsel istismarı materyallerini CyberTipline'a bildirmelerini zorunlu kılan bir federal yasa çıkarıldı.
İlk zamanlarda haftada 100'den fazla çocuk istismarı raporu alabiliyorduk. İlk raporumuzu 2001'de bir teknoloji şirketinden aldık. 2021'de ise her gün yaklaşık 70.000 yeni rapor alıyorduk. Bunlardan bazıları halktan gelirken raporlarımızın büyük çoğunluğu teknoloji şirketleri tarafından gönderiliyor.
NCMEC, internet şirketlerinin CSAM ile mücadelesine nasıl yardımcı oluyor?
Yasalar, şirketlerin proaktif bir çaba göstermesini zorunlu kılmıyor. Çocuk cinsel istismarı içeriklerini tespit etmeleri veya bu içeriklerden haberdar olmaları durumunda bunları bildirmeleri gerekir. Yıllar içinde CyberTipline'da gördüğümüz önemli büyümenin itici gücü de aslında bu. Ancak raporlardaki en önemli artışı son beş yılda gördük. Bu patlamanın nedeni, birçok teknoloji şirketinin CSAM'yi proaktif bir şekilde tespit etmek, kaldırmak ve bildirmek için gönüllü olarak gösterdiği çabalara bağlanabilir.
Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'nde işlettiğimiz en önemli programlardan biri, hem sektörün hem de seçilmiş STK'ların katkıda bulunabileceği karma paylaşım platformlarıdır. Sivil toplum kuruluşu karma paylaşım platformu aracılığıyla NCMEC, ilgili teknoloji şirketlerine, ağlarında CSAM ile mücadele etme çabalarına yardımcı olmak için üç kez incelenmiş ve onaylanmış beş milyondan fazla CSAM karma değeri sunar. Google dahil birçok büyük şirket bu listeden yararlanarak platformlarından CSAM'yi kaldırmak için proaktif adımlar atıyor. Bu liste, çocuklara hizmet veren diğer saygın STK'ların da karmalarını NCMEC'nin karma platformu aracılığıyla teknoloji sektörüne sunmasına olanak tanır. Böylece, teknoloji şirketlerinin her bir STK'ya ayrı ayrı başvurmasına gerek kalmaz.
Ayrıca, belirli şirketlerin kendi CSAM karmalarını birbirleriyle paylaşmalarını sağlayan bir Sektör Karması Paylaşım platformu da sunuyoruz. Bu tür materyalleri proaktif bir şekilde tespit etmeye istekli ve yetenekli olan tüm şirketlerin bunu yapabilmek için ihtiyaç duydukları tüm araçlara sahip olmalarını ve şirketlerin kendi CSAM karma değerlerini birbirleriyle paylaşabilmelerini sağlıyoruz. Google, listedeki toplam karma sayısının yaklaşık %74'ü ile bu platforma en büyük katkıyı sağlayan kuruluş.
Şu anda aldığımız raporların hacmini düşündüğümüzde, aynı resimlerin birden fazla kez bildirildiğini görüyoruz. Şirketlerin bilinen materyalleri tespit etmek için karma değerlerini kullanması tamamen anlaşılır bir durum. Ancak bilinen materyallerin sayısı arttıkça NCMEC'nin üretilmiş ve internette paylaşılmış yeni materyalleri tespit edebilmesi daha da önem kazanıyor.
Google'ın Hash Matching API'si, NCMEC'nin CyberTipline raporlarına öncelik vermesine yardımcı oldu. Bu projenin başlangıcı hakkında daha fazla bilgi verebilir misiniz?
Karma değer paylaşım programının başarısı, yepyeni yeni bir zorluk yarattı: Büyük sorunlara neden olan bir hacim. NCMEC gibi sivil toplum örgütlerinin bu hacme ölçeklenebilecek bir bilgi işlem güçleri bulunmuyor. Bu nedenle, Hash Matching API aracının geliştirilmesinde Google'ın yardımını almaktan büyük memnuniyet duyduk ve minnettar kaldık.
2020'de 21 milyon CyberTipline raporu aldık ancak bu raporların her birinde birden fazla resim ve video bulunabiliyor. 21 milyon bildirimde aslında 70 milyona yakın çocukların cinsel istismarı nitelikli görsel ve video yer alıyordu. Bu hacim içinde açıkça bir çoğaltma var ve NCMEC'nin tam eşleşmeleri tespit etmesi kolay olsa da, daha önce hiç görülmemiş görüntüleri belirlemek ve önceliklendirmek için görsel olarak benzer eşleşmeleri büyük ölçekte ve gerçek zamanlı olarak tespit edemezdik. Bu, aktif olarak cinsel istismara maruz kalan çocukları tespit etmeye çalışırken çok önemli.
Hash Matching API, NCMEC'ye ne gibi avantajlar sağladı?
Çok önemli bir işimiz var. Bu kritik bilgileri alıp mümkün olduğunca hızlı bir şekilde kolluk kuvvetlerine iletmemiz gerekiyor. Bu aracın avantajlarından biri, CyberTipline raporlarına değer katmanın yeni bir yolunu sunması.
Çocukların cinsel istismara uğradığını gösteren her bir resim ve videoyu inceleyip etiketlediğimiz bir çalışma programımız var. Örneğin, "Bu CSAM", "Bu CSAM değil" veya "Çocuğun ya da kişinin yaşını belirlemek zor." Ancak tahmin edebileceğiniz gibi, yalnızca geçen yıl 70 milyon dosya incelendi ve bunların hepsini etiketlememiz mümkün değil. Bu API, karşılaştırma yapmamızı sağlıyor. Bir dosyayı etiketlediğimizde API, görsel olarak benzer tüm dosyaları belirlememize ve ardından bunları gerçek zamanlı olarak etiketlememize olanak tanıyor. Sonuç olarak 26 milyondan fazla görüntüyü etiketleyebildik.
Bu sayede, kolluk kuvvetlerine gönderdiğimiz raporlara daha fazla değer katabiliyoruz. Böylece, hangi raporları diğerlerinden önce inceleyeceklerine karar verebiliyorlar. Ayrıca, daha önce hiç görülmemiş resimleri belirlememize de yardımcı oluyor. Bu görüntülerde genellikle dünyanın bir yerinde cinsel istismara uğrayan bir çocuk yer alıyor. Yaptığımız iş samanlıkta iğne aramaktan farksız. Ama bu durumda iğne, kurtarılması gereken bir çocuk. Google'ın aracı, acil yardıma ihtiyaç duyan çocukların yer aldığı görüntülere odaklanmamızı sağladı.
Peki bu araç, CyberTipline'dan gelen raporları işleyen ve CSAM içeriklerini analiz eden NCMEC'nin insan inceleyicilerinin sağlığını nasıl etkiledi?
Bu CSAM tespit aracı sayesinde çalışanlarımızın aynı görüntülere tekrar tekrar bakmasına daha az ihtiyaç var. Bugün artık yetişkin olan kişilerin çocukken cinsel istismara uğradığını gösteren görüntüler bulunuyor. Bu görüntülerin kalıcı olarak internette yer alması, bu kişilerin sürekli olarak mağdur edilmesine neden oluyor. Söz konusu görselleri etiketleyebilme olanağı, inceleme uzmanlarının yakın zamanda cinsel istismara uğramış çocukları tasvir eden görsellere odaklanmalarını sağluyor. Aynı zamanda yasa dışı görsellerin görüntülenmesine de engel oluyor.
Çalışanlarımız bu çocuklara yardım etmek istedikleri için burada. Bu, çalışanlarımızın sağlığını korumasına ve aynı zararlı materyalle tekrar tekrar karşılaşmamasına yardımcı olan çığır açan bir gelişme oldu.
Bu çalışma, genel olarak teknoloji şirketlerinin internette bu tür materyallerle mücadelesine nasıl yardımcı oluyor?
Google'ın, CSAM'ye karşı küresel mücadeleyi desteklemek için şirketlere CSAM algılama teknolojisi sağladığını biliyoruz. Hash Matching API'nin kendisi de NCMEC'in ötesinde birçok kişiyi doğrudan etkiliyor. Tüm teknoloji şirketleri, Ulusal Merkez'de daha basit ve verimli bir süreçten yararlanıyor. CyberTipline raporları, bu araca sahip olmasaydık mümkün olmayacak şekilde daha hızlı ve daha değerli bir şekilde ele alınıp işleniyor.
NCMEC, teknoloji şirketleri, kolluk kuvvetleri, mağdurlar ve aileleri için merkezi bir kaynak. Sorunlara ve çözümlere benzersiz bir açıdan bakıyoruz. CyberTipline sayesinde, internette dolaşan yeni oluşturulmuş ve mevcut CSAM'nin farkındayız. Bu raporların tümü kolluk kuvvetlerinin erişimine açılıyor. Bu sürecin sonunda cinsel istismara ve tacize uğramış gerçek çocukların olduğunu asla unutmamalıyız.
Cinsel istismara uğramış ve istismar anları video veya resimlerle ölümsüzleştirilmiş 20.000'den fazla çocuk olduğunu biliyoruz. İstismar mağdurlarının bazıları hâlâ çocuk, bazıları da artık yetişkin. İnternette dolaşan görüntülerinden dolayı sürekli mağduriyete uğradıklarının farkındalar. Bu nedenle, bu görüntülerin dolaşımını en aza indirmek ve azaltmak için elimizden geleni yapmamız çok önemli.
Kamuoyunun bilmediği bir şey de, bilinen CSAM'lerin "eski" veya "yeniden dolaşıma girmiş" olarak değerlendirilmesi nedeniyle göz ardı edilme eğilimi olabilmesidir. Bu görüntülerin gerçek çocuklara ait olduğunu ve 20.000'den fazla kişinin iyileşmeye ve hayatlarının kontrolünü yeniden kazanmaya çalıştığını hatırlatmak için sürekli olarak bu konuya dikkat çekiyoruz. Google gibi şirketlerin hayatlarının en kötü anlarını tasvir eden görüntüleri kaldırmak için her türlü çabayı gösterdiğini bilmek onlara büyük bir teselli veriyor.
İnternette, içinde çocukların bulunduğu cinsel içerik veya materyalle karşılaşırsanız bunu National Center for Missing and Exploited Children'a (NCMEC) veya dünya genelinde ilgili birimlere bildirebilirsiniz.
Google, internette çocukların cinsel istismarı ve sömürüsüyle mücadele etmeyi ve hizmetlerinin çocukların cinsel istismarı nitelikli materyallerin (CSAM) yayılması amacıyla kullanılmasını önlemeyi kendine görev edinmiştir. Bu konuda daha fazla bilgiyi Çocukları Koruma web sitemizde bulabilirsiniz.