NCMEC, Google ve Görsel Karma Oluşturma Teknolojisi
ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) her yıl internette çocukların cinsel istismarı nitelikli materyal (CSAM) içeren milyonlarca rapor alıyor. NCMEC'nin Kıdemli Başkan Yardımcısı ve Operasyon Direktörü Michelle DeLaune, kuruluşun evriminden, teknoloji şirketlerinin CSAM ile mücadele için nasıl harekete geçtiğinden ve Google'ın Hash Matching API'sinden bahsediyor.
NCMEC hakkında bilgi verebilir misiniz? Kuruluştaki rolünüz nedir?
NCMEC'de 20 yılı aşkın süredir çalışıyorum. Bu süre zarfında kuruluşun gelişimine, çocuklarımızın karşılaştığı zorluklara ve güvenliklerine yönelik tehditlere bizzat tanık oldum. Buradaki kariyerime CyberTipline analisti olarak başladım.
CyberTipline, 1998'de kamuoyunun çocuk istismarı vakalarını bildirmesi amacıyla kuruldu. O dönemde, yetişkinlerin çocuklarıyla internette uygunsuz şekilde konuştuğundan endişe duyan ebeveynlerden ve çocukların cinsel istismarı nitelikli materyal (CSAM) içeren web siteleriyle karşılaşan kişilerden mesajlar alıyorduk. Ardından ABD'de, ABD'li teknoloji şirketlerinin sistemlerinde görünen CSAM vakalarını CyberTipline'a bildirmelerini zorunlu kılan bir federal yasa çıkarıldı.
İlk zamanlarda haftada 100'den fazla çocuk istismarı raporu alabiliyorduk. İlk raporumuzu 2001'de bir teknoloji şirketinden aldık. 2021'de ise her gün yaklaşık 70.000 yeni rapor alıyorduk. Bunlardan bazıları halktan gelirken raporlarımızın büyük çoğunluğu teknoloji şirketleri tarafından gönderiliyor.
NCMEC, internet şirketlerinin CSAM ile mücadelesine nasıl yardımcı oluyor?
Yasalar, şirketlerin proaktif bir çaba göstermesini zorunlu kılmıyor. CSAM içeriklerini tespit etmeleri veya bu içeriklerden haberdar olmaları durumunda bunları bildirmeleri gerekir. Yıllar içinde CyberTipline'da gördüğümüz önemli büyümenin itici gücü de aslında bu. Ancak raporlardaki en önemli artışı son beş yılda gördük. Bu patlamanın nedeni, birçok teknoloji şirketinin CSAM'yi proaktif bir şekilde tespit etmek, kaldırmak ve bildirmek için gönüllü olarak gösterdiği çabalara bağlanabilir.
ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'nde işlettiğimiz en önemli programlardan biri, hem sektörün hem de seçilmiş STK'ların katkıda bulunabileceği karma paylaşım platformlarıdır. STK karma paylaşım platformu aracılığıyla NCMEC, ilgili teknoloji şirketlerine, ağlarında CSAM ile mücadele etme çabalarına yardımcı olmak için üç kez incelenmiş ve onaylanmış beş milyondan fazla CSAM karma değeri sunar. Google dahil birçok büyük şirket bu listeden yararlanarak platformlarından CSAM'yi kaldırmak için proaktif adımlar atıyor. Bu liste, çocuklara hizmet veren diğer saygın STK'ların da karmalarını NCMEC'nin karma platformu aracılığıyla teknoloji sektörüne sunmasına olanak tanır. Böylece, teknoloji şirketlerinin her bir STK'ya ayrı ayrı başvurmasına gerek kalmaz.
Ayrıca, belirli şirketlerin kendi CSAM karmalarını birbirleriyle paylaşmalarını sağlayan bir sektör karması paylaşım platformu da sunuyoruz. Bu tür materyalleri proaktif bir şekilde tespit etmeye istekli ve yetenekli olan tüm şirketlerin bunu yapabilmek için ihtiyaç duydukları tüm araçlara sahip olmalarını ve şirketlerin kendi CSAM karma değerlerini birbirleriyle paylaşabilmelerini sağlıyoruz. Google, listedeki toplam karma sayısının yaklaşık %74'ü ile bu platforma en büyük katkıyı sağlayan kuruluş.
Şu anda aldığımız raporların hacmini düşündüğümüzde, aynı resimlerin birden fazla kez bildirildiğini görüyoruz. Şirketlerin bilinen materyalleri tespit etmek için karma değerlerini kullanması tamamen anlaşılır bir durum. Ancak bilinen materyallerin sayısı arttıkça NCMEC'nin üretilmiş ve internette paylaşılmış yeni materyalleri tespit edebilmesi daha da önem kazanıyor.
Google'ın Hash Matching API'si, NCMEC'nin CyberTipline raporlarına öncelik vermesine yardımcı oldu. Bu projenin başlangıcı hakkında daha fazla bilgi verebilir misiniz?
Karma değer paylaşım programının başarısı, yepyeni yeni bir zorluk yarattı: Büyük sorunlara neden olan bir hacim. NCMEC gibi sivil toplum kuruluşlarının bu hacme ölçeklenebilecek bir bilgi işlem güçleri bulunmuyor. Bu nedenle, Hash Matching API aracının geliştirilmesinde Google'ın yardımını almaktan büyük memnuniyet duyduk ve minnettar kaldık.
2020'de 21 milyon CyberTipline raporu aldık ancak bu raporların her birinde birden fazla resim ve video bulunabiliyor. 21 milyon bildirimde aslında 70 milyona yakın çocukların cinsel istismarı nitelikli görsel ve video yer alıyordu. Bu hacmin içinde birbirinin aynısı olan dosyalar da vardı. NCMEC'nin tamamen aynı dosyaları tespit etmesi kolay olsa da daha önce hiç görülmemiş görselleri belirlemek ve önceliklendirmek için büyük ölçekteki benzer eşleşmeleri anlık olarak tespit edemezdik. Bu, aktif olarak cinsel istismara maruz kalan çocukları tespit etmeye çalışırken çok önemli.
Hash Matching API, NCMEC'ye ne gibi avantajlar sağladı?
Çok önemli bir işimiz var. Bu kritik bilgileri alıp mümkün olduğunca hızlı bir şekilde kolluk kuvvetlerine iletmemiz gerekiyor. Bu aracın avantajlarından biri, CyberTipline raporlarına değer katmanın yeni bir yolunu sunması.
Çocukların cinsel istismarı nitelikli her bir görsel ve videoyu inceleyip etiketlediğimiz bir çalışma programımız var. Örneğin, "Bu CSAM", "Bu CSAM değil" veya "Çocuğun ya da kişinin yaşını belirlemek zor" şeklinde etiketleme yapıyoruz. Ancak tahmin edebileceğiniz gibi, yalnızca geçen yıl 70 milyon dosya incelendi ve bunların hepsini etiketlememiz mümkün değil. Bu API, karşılaştırma yapmamızı sağlıyor. Bir dosyayı etiketlediğimizde API, görsel olarak benzer tüm dosyaları belirlememize ve ardından bunları anlık olarak etiketlememize olanak tanıyor. Sonuç olarak 26 milyondan fazla görseli etiketleyebildik.
Bu sayede, kolluk kuvvetlerine gönderdiğimiz raporlara daha fazla değer katabiliyoruz. Böylece, hangi raporları diğerlerinden önce inceleyeceklerine karar verebiliyorlar. Ayrıca, daha önce hiç görülmemiş görselleri belirlememize de yardımcı oluyor. Bu görsellerde genellikle dünyanın bir yerinde cinsel istismara uğrayan bir çocuk yer alıyor. Yaptığımız iş samanlıkta iğne aramaktan farksız. Ama bu durumda iğne, kurtarılması gereken bir çocuk. Google'ın aracı, acil yardıma ihtiyaç duyan çocukların yer aldığı görüntülere odaklanmamızı sağladı.
Peki bu araç, CyberTipline'dan gelen raporları işleyen ve CSAM içeriklerini analiz eden NCMEC'nin inceleme uzmanlarının sağlığını nasıl etkiledi?
Bu CSAM algılama aracı sayesinde çalışanlarımızın aynı görüntülere tekrar tekrar bakmasına daha az ihtiyaç var. Bugün yetişkin olan kişilerin çocukken cinsel istismara uğradığını gösteren görseller bulunuyor. Bu görsellerin kalıcı olarak internette yer alması, bu kişilerin sürekli olarak mağdur edilmesine neden oluyor. Söz konusu görselleri etiketleyebilme olanağı, inceleme uzmanlarının yakın zamanda cinsel istismara uğramış çocukları tasvir eden görsellere odaklanmalarını sağlıyor. Aynı zamanda yasa dışı görsellerin görüntülenmesine de engel oluyor.
Çalışanlarımız bu çocuklara yardım etmek istedikleri için burada. Bu, çalışanlarımızın sağlığını korumasına ve aynı zararlı materyalle tekrar tekrar karşılaşmamasına yardımcı olan çığır açan bir gelişme oldu.
Bu çalışma, genel olarak teknoloji şirketlerinin internette bu tür materyallerle mücadelesine nasıl yardımcı oluyor?
Google'ın, CSAM'ye karşı küresel mücadeleyi desteklemek için şirketlere CSAM algılama teknolojisi sağladığını biliyoruz. Hash Matching API'nin kendisi de NCMEC'nin ötesinde birçok kişiyi doğrudan etkiliyor. Tüm teknoloji şirketleri, Ulusal Merkez'de daha basit ve verimli bir süreçten yararlanıyor. CyberTipline raporları, bu aracın olmadığı durumlara kıyasla daha hızlı ve daha değerli bir şekilde ele alınıp işleniyor.
NCMEC; teknoloji şirketleri, kolluk kuvvetleri, mağdurlar ve aileleri için merkezi bir kaynak. Sorunlara ve çözümlere benzersiz bir açıdan bakıyoruz. CyberTipline sayesinde, internette dolaşan yeni oluşturulmuş ve mevcut CSAM'nin farkındayız. Bu raporların tümü kolluk kuvvetlerinin erişimine açılıyor. Bu sürecin sonunda cinsel istismara ve tacize uğramış gerçek çocukların olduğunu asla unutmamalıyız.
Cinsel istismara uğramış ve istismar videoları veya görselleri kaydedilmiş 20.000'den fazla çocuk olduğunu biliyoruz. İstismar mağdurlarının bazıları hâlâ çocuk, bazıları da artık yetişkin. İnternette dolaşan görüntülerinden dolayı sürekli mağduriyete uğradıklarının farkındalar. Bu nedenle, bu görüntülerin dolaşımını en aza indirmek ve azaltmak için elimizden geleni yapmamız çok önemli.
Kamuoyunun bilmediği diğer bir şey, bilinen CSAM'lerin "eski" veya "yeniden dolaşıma girmiş" olarak değerlendirilmesi nedeniyle göz ardı edilme eğilimi olabilmesidir. Bu görüntülerin gerçek çocuklara ait olduğunu ve 20.000'den fazla kişinin iyileşmeye ve hayatlarının kontrolünü yeniden kazanmaya çalıştığını hatırlatmak için sürekli olarak bu konuya dikkat çekiyoruz. Google gibi şirketlerin hayatlarının en kötü anlarını tasvir eden görselleri kaldırmak için her türlü çabayı gösterdiğini bilmek onlara büyük bir teselli veriyor.
İnternette, içinde çocukların bulunduğu cinsel içerik veya materyalle karşılaşırsanız bunu ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) veya dünya genelinde ilgili birimlere bildirebilirsiniz.
Google, internette çocuğun cinsel istismarı ve çocuk istismarıyla mücadele etmeyi ve hizmetlerinin çocukların cinsel istismarı nitelikli materyallerin (CSAM) yayılması amacıyla kullanılmasını önlemeyi kendine görev edinmiştir. Bu konuda daha fazla bilgiyi çocukları korumayla ilgili web sitemizde bulabilirsiniz.