एनसीएमईसी, Google, और इमेज हैशिंग टेक्नोलॉजी


अमेरिका में हर साल, नैशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) को इंटरनेट पर मौजूद, बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट (सीएसएएम) से जुड़ी लाखों शिकायतें मिलती हैं. एनसीएमईसी की सीनियर वाइस प्रेसिडेंट और चीफ़ ऑपरेटिंग ऑफ़िसर, मिशेल दुलून ने अपने संगठन के बारे में बताया. उन्होंने सीएसएएम की चुनौती से निपटने में टेक्नोलॉजी से जुड़ी कंपनियों की कोशिशों और Google के Hash Matching API के इस्तेमाल पर चर्चा की.

एनसीएमईसी के बारे में बताएं और यह भी बताएं कि इस कॉर्पोरेशन में आपकी क्या भूमिका है?


मैं एनसीएमईसी के साथ पिछले 20 से ज़्यादा साल से जुड़ी हुई हूं. इस दौरान, मैंने इस संस्थान को आगे बढ़ते और चुनौतियों का सामने करते हुए देखा है. यहां काम करते हुए मैंने देखा है कि हमारे समाज में बच्चे कितने खतरे में हैं और उनकी सुरक्षा कितनी ज़रूरी है. मैंने यहां अपने करियर की शुरुआत एक CyberTipline ऐनलिस्ट के तौर पर की.

CyberTipline की शुरुआत साल 1998 में हुई थी. इसका मकसद, लोगों को एक ऐसा प्लैटफ़ॉर्म देना था जहां वे बच्चों के शोषण की संभावित घटनाओं के ख़िलाफ़ शिकायत कर सकें. शुरुआत में, हमें बच्चों के अभिभावकों से शिकायतें मिलती थीं कि इंटरनेट पर किसी वयस्क ने उनके बच्चे के साथ आपत्तिजनक बातें की हैं. लोग ऐसी वेबसाइटों के ख़िलाफ़ भी शिकायतें करते थे जिन पर सीएसएएम होता था. अमेरिका में इससे जुड़ा कानून बनने के बाद, अमेरिका की सभी टेक्नोलॉजी कंपनियों के लिए, अपने सिस्टम पर होने वाली सीएसएएम घटनाओं की शिकायत CyberTipline पर करना ज़रूरी हो गया.

शुरुआत में, हमारे पास एक हफ़्ते में बच्चों के शोषण से जुड़ी करीब 100 शिकायतें आती थीं. साल 2001 में पहली बार किसी टेक्नोलॉजी कंपनी ने ऐसी शिकायत की. हालांकि, समय तेज़ी से बदला है और साल 2021 में हमें रोज़ाना करीब 70,000 नई शिकायतें मिलती हैं. इनमें से कुछ शिकायतें हमें आम लोगों से मिलती हैं, लेकिन ज़्यादातर शिकायतें टेक्नोलॉजी कंपनियां ही सबमिट करती हैं.

सीएसएएम के ख़िलाफ़ लड़ाई में एनसीएमईसी, ऑनलाइन कंपनियों की मदद कैसे करता है?


कानून के हिसाब से यह ज़रूरी नहीं है कि कंपनियां सीएसएएम को रोकने के लिए अपनी तरफ़ से कोई कदम उठाएं. हालांकि, उनसे उम्मीद की जाती है कि सीएसएएम कॉन्टेंट के दिखने पर या इसकी जानकारी मिलने पर वे शिकायत ज़रूर करें. इससे टेक्नोलॉजी कंपनियों का हौसला बढ़ा है और यही वजह है कि पिछले कुछ साल में CyberTipline सफल और असरदार साबित हुई है. हालांकि, पिछले पांच सालों में शिकायतों की संख्या बहुत बढ़ गई है. इस बढ़ोतरी की बड़ी वजह यह है कि टेक्नोलॉजी कंपनियां इस दिशा में अपनी मर्ज़ी से काम कर रही हैं. वे सीएसएएम की पहचान करने, उसे हटाने, और उसकी शिकायत करने में सक्रिय भूमिका निभा रही हैं.

नैशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रेन में हम हैश शेयरिंग प्लैटफ़ॉर्म के फ़्लैगशिप प्रोग्राम चलाते हैं. इसके तहत, इंडस्ट्री और चुनिंदा गैर-सरकारी संगठन, दोनों ही अलग-अलग प्लैटफ़ॉर्म की मदद से अपना योगदान दे सकते हैं. गैर-सरकारी संगठन के हैश शेयरिंग प्लैटफ़ॉर्म की मदद से एनसीएमईसी, टेक्नोलॉजी से जुड़ी कंपनियों को पचास लाख से ज़्यादा हैश वैल्यू देता है. तीन बार की जांच में सीएसएएम की पुष्टि हो जाने के बाद यह डेटा उन कंपनियों को दिया जाता है. इससे, कंपनियों को अपने नेटवर्क पर सीएसएएम के ख़िलाफ़ लड़ाई में मदद मिलती है. Google सहित कई बड़ी कंपनियों को इस सूची से मदद मिली है. साथ ही, वे अपने प्लैटफ़ॉर्म से सीएसएएम को हटाने के लिए कई कदम उठा रही हैं. इस सूची से ऐसे प्रतिष्ठित गैर-सरकारी संगठनों को भी मदद मिलती है जो बच्चों के हित के लिए काम करते हैं. वे, एनसीएमईसी के हैश प्लैटफ़ॉर्म का इस्तेमाल करके, टेक्नोलॉजी इंडस्ट्री को हैश दे पाते हैं. एनसीएमईसी की कोशिश है कि टेक्नोलॉजी कंपनियों को डेटा पाने के लिए, हर गैर-सरकारी संगठन से अलग-अलग संपर्क ना करना पड़े.

हमने इंडस्ट्री के लिए भी हैश शेयरिंग प्लैटफ़ॉर्म बनाया है. इसकी मदद से, चुनिंदा कंपनियां अपने सीएसएएम हैश आपस में शेयर कर सकती हैं. हम यह पक्का कर रहे हैं कि जो भी कंपनी ऐसे कॉन्टेंट की पहचान करना चाहती हैं और जो ऐसा कर सकती हैं उनके पास सभी ज़रूरी टूल मौजूद हों. साथ ही, वे एक-दूसरे के साथ अपने सीएसएएम हैश शेयर कर सकें. इसमें Google का सबसे ज़्यादा योगदान है. सूची में मौजूद कुल हैश का करीब 74% हिस्सा Google ने जोड़ा है.

हमें अब मिलने वाली शिकायतों की संख्या से, इस बात का अंदाज़ा लगाया जा सकता है कि एक ही कॉन्टेंट के लिए हमें अलग-अलग प्लैटफ़ॉर्म पर कई शिकायतें मिलती हैं. ऐसा हो सकता है, क्योंकि कंपनियां पुराने कॉन्टेंट की पहचान करने के लिए हैश वैल्यू का इस्तेमाल करती हैं. हालांकि, पुराने कॉन्टेंट से जुड़ी शिकायतों की संख्या बढ़ने की वजह से, एनसीएमईसी के लिए ऐसे नए कॉन्टेंट की पहचान कर पाना ज़्यादा अहम हो जाता है जिसे इंटरनेट पर शेयर किया जा रहा है.

Google के Hash Matching API से, एनसीएमईसी को CyberTipline पर मिलने वाली शिकायतों को प्राथमिकता देने में मदद मिली. क्या आप हमें बता सकती हैं कि यह प्रोजेक्ट कैसे शुरू हुआ?


हैश शेयरिंग प्रोग्राम की सफलता ने एक नई चुनौती खड़ी कर दी. हमें इतनी बड़ी संख्या में शिकायतें मिलने लगीं कि उन सब पर काम कर पाना मुश्किल हो गया. एनसीएमईसी जैसी गैर-लाभकारी संस्था के पास शिकायतों की इतनी बड़ी संख्या पर काम करने के लिए, कंप्यूटेशनल टूल मौजूद नहीं होते हैं. इसलिए, हमें Google की मदद की ज़रूरत थी और हम इसके लिए आभारी हैं कि Hash Matching API टूल बनाने में Google ने हमारी मदद की.

साल 2020 में हमें CyberTipline पर 2.1 करोड़ शिकायतें मिलीं. हालांकि, शिकायतें इतनी ही थीं, लेकिन दिक्कत इससे भी बड़ी थी, क्योंकि हर शिकायत में कई इमेज और वीडियो हो सकते थे. उन 2.1 करोड़ शिकायतों में, बच्चों का यौन शोषण दिखाने वाली इमेज और वीडियो की संख्या करीब 7 करोड़ थी. इसका मतलब साफ़ है कि इन शिकायतों में डुप्लीकेट शिकायतों की संख्या बहुत ज़्यादा रही होगी. एनसीएमईसी के लिए, इनमें एग्ज़ैक्ट मैच की पहचान करना आसान है. हालांकि, इतनी बड़ी संख्या में मिलने वाली शिकायतों में, एक जैसी इमेज या वीडियो पर रीयल टाइम में काम करना मुश्किल होता है. खास तौर पर तब, जब पहली बार मिलने वाली इमेज की पहचान करके उन्हें प्राथमिकता तय करनी हो. ऐसा करना हमारे लिए ज़रूरी होता है, क्योंकि इसी तरह हम उन बच्चों की पहचान कर पाते हैं जो यौन शोषण का शिकार हो रहे हैं.

एनसीएमईसी को Hash Matching API टूल के इस्तेमाल से क्या फ़ायदे मिले हैं?


हमारा काम बहुत अहम है. हम इस अहम जानकारी को जल्द से जल्द कानून लागू करने वाली एजेंसी तक पहुंचाने का काम करते हैं. इस टूल का एक फ़ायदा यह है कि इससे हम CyberTipline पर मिलने वाली शिकायतों में, नए तरीके से ज़्यादा से ज़्यादा वैल्यू जोड़ पाते हैं.

हम एक तय प्रोग्राम के हिसाब से काम करते हैं. इससे, हमें बच्चों का यौन शोषण दिखाने वाली हर इमेज और वीडियो का विश्लेषण करने में मदद मिलती है. साथ ही, हम उन्हें लेबल कर पाते हैं. उदाहरण के लिए, 'यह सीएसएएम है', 'यह सीएसएएम नहीं है' या 'इस कॉन्टेंट में दिखने वाले बच्चे या व्यक्ति की उम्र का अनुमान लागना मुश्किल है'. हालांकि, यह समझा जा सकता है कि पिछले सिर्फ़ एक साल में हमने सात करोड़ फ़ाइलों पर काम किया है. इतनी सारी फ़ाइलों पर काम करते हुए, सभी को लेबल करना नामुमकिन है. इस API से हमें कॉन्टेंट की तुलना करने में मदद मिलती है. जब हम किसी एक फ़ाइल को टैग करते हैं, तो API उसके जैसी दिखने वाली सभी फ़ाइलों की पहचान करने में हमारी मदद करता है. इसके आधार पर हम उन फ़ाइलों को रीयल टाइम में टैग कर पाते हैं. इसकी मदद से, हम 2.6 करोड़ से भी ज़्यादा इमेज को टैग कर पाए हैं.

इससे हमें कानून प्रवर्तन एजेंसियों को भेजी जाने वाली शिकायतों में वैल्यू जोड़ने में मदद मिली है. ऐसा करने से, उन्हें यह समझने में मदद मिलती है कि किस शिकायत की समीक्षा उन्हें पहले करनी है. इसके ज़रिए हमें पहली बार मिलने वाली इमेज की पहचान करने में भी मदद मिलती है. आम तौर पर, इन इमेज में दुनिया के किसी कोने में मौजूद कोई ऐसा बच्चा होता है जो यौन शोषण का शिकार हो रहा है. यह भूसे के ढेर में सुई खोजने के जैसा है. इन मामलों में वह सुई एक बच्चा होता है जिसे बचाया जाना ज़रूरी है. Google के टूल से हम उन इमेज की पहचान कर पाते हैं जिनमें मौजूद बच्चों को तत्काल मदद की ज़रूरत होती है.

CyberTipline पर मिलने वाली शिकायतों और सीएसएएम कॉन्टेंट का विश्लेषण करने वाले, एनसीएमईसी के कर्मचारियों को मानसिक रूप से स्वस्थ रखने में Hash Matching API ने कैसे मदद की?


सीएसएएम की पहचान करने वाले टूल की मदद से, हमारे कर्मचारियों को एक ही इमेज को बार-बार देखने की ज़रूरत नहीं पड़ती. यौन शोषण को दिखाने वाली ऐसी इमेज हैं जिनमें दिख रहे बच्चे शायद अब वयस्क हो गए हों. ये इमेज इंटरनेट पर हमेशा मौजूद रहती हैं और इसकी वजह से उन व्यक्तियों का उत्पीड़न होता रहता है. इस तरह की इमेज को टैग करने से, कर्मचारी उन बच्चों पर ध्यान दे पाते हैं जो हाल में ही यौन शोषण का शिकार हुए हैं. इसके साथ ही, गैर-कानूनी इमेज की पहचान करके उन्हें इंटरनेट से हटाने में आसानी होती है.

इस तरह के काम में हमारे कर्मचारियों की भूमिका अहम हो जाती है. वे बच्चों की मदद करना चाहते हैं. इस टेक्नोलॉजी से, हमें कर्मचारियों के मानसिक स्वास्थ्य पर पड़ने वाले बुरे असर को कम करने में ज़बरदस्त रूप से मदद मिली. टूल की मदद से, कर्मचारी ऐसे कॉन्टेंट को बार-बार देखने से बच जाते हैं जिससे उनके मानसिक स्वास्थ्य को नुकसान पहुंच सकता है.

इंटरनेट पर इस तरह के कॉन्टेंट को रोकने में टेक्नोलॉजी कंपनियों को इस काम से किस तरह की मदद मिलती है?


हम जानते हैं कि सीएसएएम को रोकने के लिए, Google दुनिया भर में कंपनियों को सीएसएएम की पहचान करने वाली टेक्नोलॉजी उपलब्ध कराता है. इसके अलावा, Hash Matching API टूल से एनसीएमईसी के साथ-साथ कई कंपनियों को सीधी मदद मिली है. टेक्नोलॉजी कंपनियों को, नैशनल सेंटर की पहले से ज़्यादा व्यवस्थित और बेहतर प्रोसेस का फ़ायदा मिला है. हम CyberTipline पर मिलने वाली शिकायतों को तय समय पर देखते हैं और उनमें ज़्यादा वैल्यू जोड़ पाते हैं. अगर हमारे पास यह टूल नहीं होता, तो ऐसा कर पाना मुश्किल होता.

एनसीएमईसी, टेक्नोलॉजी कंपनियों, कानून प्रवर्तन एजेंसियों, यौन शोषण का शिकार हुए लोग, और उनके परिवारों के लिए एक मुख्य संसाधन है. हम समस्याओं और उसके समाधानों को बहुत अलग तरीके से देखते और समझते हैं. CyberTipline की मदद से, हमें इंटरनेट पर शेयर किए जा रहे नए और मौजूदा सीएसएएम की जानकारी रहती है. ये सभी शिकायतें, कानून प्रवर्तन एजेंसियों तक पहुंचाई जाती हैं. हालांकि, हमें यह नहीं भूलना चाहिए कि हम उन बच्चों के लिए काम कर रहे हैं जो यौन शोषण और उत्पीड़न का शिकार हो रहे हैं.

हम 20,000 से भी ज़्यादा ऐसे बच्चों को जानते हैं जो यौन शोषण का शिकार हुए और ऐसा करते हुए उनका वीडियो बनाया गया या तस्वीर खींची गई. यौन शोषण का शिकार हुए इन लोगों में से कुछ अब भी बच्चे हैं जबकि कुछ लोग वयस्क हो गए हैं. इन्हें अच्छी तरह पता है कि ये उत्पीड़न का शिकार हुए हैं. इसलिए, यह ज़रूरी है कि हम इन इमेज को शेयर किए जाने से रोकने की पूरी कोशिश करें.

ऐसा हो सकता है कि लोगों को यह पता न हो, लेकिन लोगों में पुराने सीएसएएम पर ध्यान न देने की आदत होती है. इसकी वजह यह है कि लोग उन इमेज को “पुराना” या “दोबारा शेयर किया हुआ” मान लेते हैं. हम लगातार लोगों को यह याद दिलाते रहते हैं कि इन इमेज में दिख रहे बच्चे असल में हैं. ये बच्चे अभी तक, सदमे से उबरने और ज़िंदगी में नई शुरुआत करने की कोशिश कर रहे हैं. ऐसे बच्चों की संख्या 20,000 से ज़्यादा है. उन बच्चों को, यह जानकर बहुत तसल्ली मिलती है कि Google जैसी कंपनियां, ऐसी इमेज को हटाने की हर कोशिश कर रही हैं जिनसे उनके जीवन की सबसे बुरी यादें जुड़ी हैं.

अगर आपको इंटरनेट पर, बच्चों का यौन शोषण दिखाने वाली इमेज या कॉन्टेंट दिखता है, तो इसकी शिकायत नैशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) से या दुनिया की किसी अन्य संबंधित अथॉरिटी से करें

Google, इंटरनेट पर बच्चों का यौन शोषण और उत्पीड़न दिखाने वाले कॉन्टेंट (सीएसएएम) को रोकने के लिए प्रतिबद्ध है. हम पूरी कोशिश करते हैं कि हमारी सेवाओं का इस्तेमाल, ऐसे कॉन्टेंट को फ़ैलाने के लिए न किया जाए. ज़्यादा जानने के लिए, हमारी बच्चों की सुरक्षा से जुड़ी वेबसाइट पर जाएं.

सायबर सिक्योरिटी

जानें कि कैसे हम दुनिया की किसी भी कंपनी के मुकाबले, ज़्यादा लोगों को इंटरनेट पर सुरक्षित रखते हैं.

ज़्यादा जानें