NCMEC, Google અને ઇમેજ હૅશિંગ ટેક્નોલોજી


યુનાઇટેડ સ્ટેટ્સમાં, નેશનલ સેન્ટર ફૉર મિસિંગ ઍન્ડ એક્સ્પ્લૉઇટેડ ચિલ્ડ્રન (NCMEC)ને દર વર્ષે ઑનલાઇન બાળકોના જાતીય શોષણ સબંધિત કન્ટેન્ટ (ચાઈલ્ડ સેક્સયુઅલ અબ્યુઝ મટીરીયલ, CSAM)ના લાખો રિપોર્ટ મળે છે. NCMECના સિનિયર વાઇસ પ્રેસિડન્ટ અને ચીફ ઑપરેટિંગ ઑફિસર મિશેલ ડિલૌન સંસ્થાના ઉદ્ભવ, ટેક કંપનીઓ કઈ રીતે CSAMનો સામનો કરવા આગળ આવી રહી છે અને Googleના Hash Matching API વિશે વાત કરે છે.

શું તમે અમને NCMEC અને તમારી ભૂમિકા વિશે જણાવશો?


હું NCMEC ખાતે 20 કરતાં વધુ વર્ષથી કાર્યરત છું, તેથી મેં આ સંસ્થાનો પ્રારંભથી વિકાસ અને આપણા બાળકો તથા તેમની સલામતી સંબંધિત પડકારો અને જોખમો જોયાં છે. મેં અહીં મારી કારકિર્દી CyberTipline વિશ્લેષક તરીકે શરૂ કરી.

જાહેર જનતાના સભ્યો માટે બાળકના શોષણના સંભવિત બનાવોની જાણ કરવાની પદ્ધતિ તરીકે, વર્ષ 1998માં CyberTipline રચવામાં આવી અને તેને રજૂ કરવામાં આવી. તે સમયે, અમને એવા ચિંતિત માતાપિતા તરફથી રિપોર્ટ મળતા હતા જેઓને ચિંતા હતી કે કોઈ પુખ્ત વયની વ્યક્તિ તેમના બાળક સાથે ઑનલાઇન અનુચિત વાત કરી રહી છે, અને એ લોકો તરફથી જેમને CSAM ધરાવતી વેબસાઇટનો સામનો થયો. પછી યુનાઇટેડ સ્ટેટ્સમાં પ્રાંતીય કાયદો પસાર કરવામાં આવ્યો, જેના અનુસાર યુએસની ટેક કંપનીઓએ તેમની સિસ્ટમ પર CSAMના કોઈપણ દેખીતા બનાવ વિશે CyberTiplineને જાણ કરવી જરૂરી બન્યું.

આરંભિક દિવસોમાં, અમને બાળકના જાતીય શોષણના પ્રતિ સપ્તાહ કદાચ 100થી વધારે રિપોર્ટ મળતા. વર્ષ 2001માં અમને ટેક કંપની તરફથી અમારો પહેલો રિપોર્ટ મળ્યો હતો. સીધા વર્ષ 2021માં આવીએ, તો અમને દરરોજ અંદાજિત 70,000 નવા રિપોર્ટ મળે છે. આમાંના કેટલાક જાહેર જનતા તરફથી હોય છે, પણ અમને મળતા મોટા ભાગના રિપોર્ટ ટેક કંપનીઓ દ્વારા સમર્પિત કરવામાં આવ્યા હોય છે.

NCMEC ઑનલાઇન કંપનીઓને CSAM સામે લડત આપવામાં કઈ રીતે સહાય કરે છે?


કાયદા અનુસાર જરૂરી નથી કે કંપનીઓ દ્વારા અગાઉથી કોઈપણ પ્રયાસ કરવામાં આવે. સાદી રીતે કહેવામાં આવે, તો જો તેમને CSAM કન્ટેન્ટની જાણકારી મળે અથવા તેઓને આની શોધ થાય, તો તેમણે જાણ કરવી જરૂરી છે. આ સાચે જ કાર્યસાધક વિકાસ માટે પ્રેરણા છે જે અમે વર્ષોપરાંત CyberTiplineમાં જોઈ છે. પણ ગત પાંચ વર્ષમાં અમે રિપોર્ટની સંખ્યામાં સૌથી નોંધપાત્ર વધારો જોયો છે. જેનું શ્રેય CSAMની જાણકારી મેળવવા, કાઢી નાખવા અને જાણ કરવા માટે અનેક ટેક કંપનીઓ દ્વારા સ્વૈચ્છિક રીતે કરવામાં આવતા આગોતરા પ્રયાસોને આપી શકાય.

અમે નેશનલ સેન્ટર ફૉર મિસિંગ ઍન્ડ એક્સ્પ્લૉઇટેડ ચિલ્ડ્રન(NCMEC) ખાતે જે મહત્ત્વના કાર્યક્રમો કરીએ છીએ તેમાંનો એક હૅશ શેરિંગ પ્લૅટફૉર્મ છે, જેની એક પદ્ધતિમાં વ્યવસાયો યોગદાન આપી શકે છે અને બીજીમાં ચૂંટાયેલા NGO યોગદાન આપી શકે છે. NGO હૅશ શેરિંગ પ્લૅટફૉર્મ મારફત, NCMEC રસ ધરાવતી ટેક કંપનીઓને તેમના નેટવર્ક પર CSAMનો સામનો કરવા માટેના તેમના પ્રયાસોમાં સહાય કરવા માટે કન્ફર્મ થયેલાં, ત્રણ વાર ઝીણવટપૂર્વક તપાસાયેલાં પચાસ લાખ કરતાં વધારે હૅશ મૂલ્યો આપે છે. Google સહિતની ઘણી મોટી કંપનીઓએ આ સૂચિ મેળવી છે અને તેમનાં પ્લૅટફૉર્મ પરથી CSAM કાઢી નાખવાનાં આગોતરા પગલાં લઈ રહી છે. આ સૂચિ થકી બાળકોને સેવા આપતી અન્ય પ્રતિષ્ઠિત NGO ટેક ઉદ્યોગને NCMECના હૅશ પ્લૅટફૉર્મ મારફત તેમના હૅશ આપી શકે છે, જેથી ટેક કંપનીને દરેક NGO પાસે જવાની જરૂરિયાતને ન્યૂનતમ કરવાના પ્રયાસો કરી શકાય.

અમે ઉદ્યોગને હૅશ શેરિંગ પ્લૅટફૉર્મની ઑફર પણ કરીએ છીએ, જેનાથી પસંદગીની કંપનીઓ એકબીજાની સાથે તેમના પોતાના CSAM હૅશ શેર કરી શકે છે. અમે એ પણ સુનિશ્ચિત કરીએ છીએ કે જે કોઈ કંપની આ કન્ટેન્ટની આગોતરા ધોરણે જાણકારી મેળવવાની ઇચ્છા અને ક્ષમતા ધરાવતી હોય તેની પાસે તે કાર્ય માટેના બધાં ટૂલ હોય અને તે કે કંપનીઓ તેમના પોતાના CSAM હૅશ એકબીજાની સાથે શેર કરી શકે છે. સૂચિમાં હૅશની કુલ સંખ્યાના લગભગ 74% સાથે Google આ પ્લૅટફૉર્મનું સૌથી મોટું યોગદાનકર્તા છે.

તમે કલ્પના કરી શકો છો કે હાલમાં અમને મળતા રિપોર્ટના વિપુલ જથ્થાના આધારે, અમે જોઈ રહ્યાં છીએ કે ઘણાં ચિત્રો વિશે એકથી વધુ વાર જાણ કરવામાં આવી રહી છે. તે સંપૂર્ણપણે સમજી શકાય તેવી બાબત છે, કારણ કે કંપનીઓ જાણીતા કન્ટેન્ટની જાણકારી મેળવવા માટે હૅશ મૂલ્યોનો ઉપયોગ કરે છે, પણ જાણીતા કન્ટેન્ટના વધવાની સાથે NCMEC માટે એ વધુ મહત્ત્વપૂર્ણ છે કે તે ઑનલાઇન બનતા અને શેર થતા નવા કન્ટેન્ટને ઓળખી શકે.

Googleના Hash Matching API દ્વારા NCMECને CyberTipline રિપોર્ટને પ્રાધાન્યતા આપવામાં સહાય થઈ છે. આ પ્રોજેક્ટ કઈ રીતે શરૂ થયો તેના વિશે તમે અમને વધુ જણાવશો?


હૅશ શેરિંગ પ્રોગ્રામની સફળતાને કારણે સંપૂર્ણપણે નવો પડકાર ઉદ્ભવ્યો છે: એવો જથ્થો જેના થકી પ્રચંડ પડકારો પ્રસ્તુત થયા. NCMEC જેવી બિન-નફાકારક સંસ્થા આ જથ્થાને પહોંચી વળે એટલી ટેક્નિકલ દક્ષતા ધરાવતી નથી. તેથી અમે Hash Matching API ટૂલનું નિર્માણ કરવામાં સહાય માટે Googleની સહાયતા માટે ખૂબ આતુર અને આભારી હતાં.

વર્ષ 2020માં, અમને 2.1 કરોડ CyberTipline રિપોર્ટ મળ્યા, પણ એ બધા રિપોર્ટમાંના દરેકમાં એકથી વધારે છબીઓ અને વીડિયો હોવાની શક્યતા હતી. એ 2.1 કરોડ રિપોર્ટમાં હકીકતે બાળકોના જાતીય શોષણને લગતી લગભગ 7.0 કરોડ છબીઓ અને વીડિયોનો સમાવેશ થતો હતો. સ્પષ્ટ છે કે, એ જથ્થામાં ડુપ્લિકેશન છે અને સાચા મેળ શોધવા એ NCMEC માટે સરળ છે, છતાં પહેલાં ક્યારેય ન જોઈ હોય તેવી છબીઓ ઓળખવા અને તેને પ્રાધાન્યતા આપવા આટલા જથ્થામાં એક જ સમયે એકસમાન દેખાતા મેળ જાણી શકવામાં અમે અસમર્થ હતાં. અને જે બાળકોનું નિરંતર જાતીય શોષણ થઈ રહ્યું હોય તેમને ઓળખવાના અમારા પ્રયાસોમાં તે સૌથી મહત્ત્વપૂર્ણ છે.

Hash Matching API થકી NCMECને કયા લાભ થયા?


અમારે બહુ મહત્ત્વનું કાર્ય કરવાનું છે, તે એ કે આ ગંભીર માહિતી મેળવવી અને તેને શક્ય એટલી ઝડપથી કાયદાના અમલીકરણના વિભાગને મોકલવી. આ ટૂલનો એક ફાયદો એ છે કે તે અમને CyberTiplineના રિપોર્ટમાં અસાધારણ મૂલ્ય ઉમેરવાની નવી રીત આપે છે.

અમારા કાર્યનો પ્રોગ્રામ હોય છે, જેમાં અમે દરેક બાળકના જાતીય શોષણની છબી અને વીડિયો જોઈએ છીએ અને તેને લેબલ આપીએ છીએ. ઉદાહરણ તરીકે, ‘આ CSAM છે’, ‘આ CSAM નથી’ અથવા ‘બાળકની કે વ્યક્તિની ઉંમર જાણવી મુશ્કેલ છે’. પણ, તમે વિચારી શકો છો કે ગત વર્ષે જ 7 કરોડ ફાઇલો મળી હતી તેવી પરિસ્થિતિમાં અમે ક્યારેય તમામ કન્ટેન્ટને લેબલ ન આપી શકીએ. આ API થકી અમે તુલના કરી શકીએ છીએ. જ્યારે અમે એક ફાઇલને ટૅગ કરીએ ત્યારે API થકી અમે તેના જેવી દેખાતી બધી ફાઇલો ઓળખી શકીએ છીએ, જેને અમે ત્યાર પછી તે જ સમયે તે અનુસાર ટૅગ કરીએ છીએ. પરિણામે, અમે 2.6 કરોડ કરતાં વધારે છબીઓને ટૅગ કરી શક્યાં છીએ.

આનાથી, અમે કાયદાના અમલીકરણના વિભાગને જે રિપોર્ટ મોકલીએ છીએ તેમાં અમને વધુ મૂલ્ય ઉમેરવામાં સહાય મળે છે, જેથી તેઓ કયા રિપોર્ટની સમીક્ષા પહેલા કરવી તેની પ્રાધાન્યતા નક્કી કરી શકે. તેનાથી અમને કઈ છબીઓ પહેલાં ક્યારેય નથી જોવાઈ તે ઓળખવામાં પણ સહાય મળે છે. તે છબીઓમાં ઘણી વાર એ બાળક હોય છે, જેનું વિશ્વમાં કોઈક સ્થળે જાતીય શોષણ થઈ રહ્યું હોય છે. જો આપણે ઘાસની ગંજીમાં સોય શોધવાની કહેવત અનુસાર જોઈએ, તો આ કિસ્સામાં પેલી સોય આ બાળક છે જેને બચાવવાની જરૂર છે. Googleના ટૂલ થકી અમે એ છબીઓ પર ધ્યાન કેન્દ્રિત કરી શક્યાં, જેમાં તાત્કાલિક સહાયની જરૂરિયાત ધરાવતા બાળકો હતાં.

અને CyberTiplineમાંથી રિપોર્ટની પ્રક્રિયા કરનાર અને CSAM કન્ટેન્ટનું વિશ્લેષણ કરનાર NCMEC માનવ સમીક્ષકોની સુખાકારી પર તેની કેવી અસર થઈ છે?


આ CSAMની જાણ મેળવનાર ટૂલ થકી અમારા કર્મચારીઓ માટે એક જ છબીને વારંવાર જોવાની જરૂરિયાત ઘટી ગઈ છે. એવી છબીઓ છે કે જેમાં બાળકોનું જાતીય શોષણ થઈ રહ્યું છે અને અત્યારે તે બાળકો તેમની પુખ્ત વયે પહોંચ્યાં હોઈ શકે છે. આ છબીઓ ઑનલાઇન હંમેશાં જીવંત રહે છે અને તે વ્યક્તિઓને પીડિત બનાવવાની નિરંતર પ્રક્રિયામાં ફાળો આપે છે. તેથી, તે છબીઓને ટૅગ કરવાથી તેમને તાજેતરના જાતીય શોષણનું ચિત્રણ કરતા બાળકો પર ફોકસ કરવાની અને એ જ સમયે ગેરકાયદેસર છબીઓને દેખાવાથી કાઢી નાખવાની મંજૂરી મળે છે.

તેથી જ તો અમારો સ્ટાફ હાજર છે; તેઓ એ બાળકોને સહાય કરવા ઇચ્છે છે. આ અદ્ભુત સુધારણાને કારણે અમારા સ્ટાફની સુખરૂપ રહેવાની ક્ષમતા વધી અને તેમણે વારંવાર એના એ હાનિકારક કન્ટેન્ટનો સામનો કરવાની જરૂર ન રહી.

આ પ્રકારના ઑનલાઇન કન્ટેન્ટ વિરૂદ્ધ એકસાથે લડત આપતી ટેક કંપનીઓને આ કાર્યથી કઈ રીતે સહાય મળે છે?


અમે જાણીએ છીએ કે CSAM વિરૂદ્ધની વૈશ્વિક લડતને સપોર્ટ કરવા માટે Google CSAM ડિટેક્શન ટેક્નોલોજી પૂરી પાડે છે અને Hash Matching API પોતે NCMEC ઉપરાંત અનેક કંપનીઓ પર સીધી અસર ધરાવે છે. બધી ટેક કંપનીઓ નેશનલ સેન્ટર ખાતે વધુ સમાંતર, અસરકારક પ્રક્રિયાના લાભનો આનંદ માણે છે. અમારી પાસે આ ટૂલ ન હોત તેના કરતાં હવે CyberTiplineના રિપોર્ટ્સ પર, સમયસર અને મૂલ્યવર્ધન સાથે કાર્યવાહી કરવામાં આવે છે.

NCMEC ટેક કંપનીઓ, કાયદાના અમલીકરણના વિભાગ, પીડિતો અને તેમના પરિવારજનો માટે કેન્દ્રીય સંસાધન છે. અમે અકલ્પનીય અનન્ય દૃષ્ટિકોણ ધરાવીએ છીએ જેના થકી અમે સમસ્યાઓ અને તેના ઉકેલો જોઈ શકીએ છીએ. CyberTiplineના કારણે, અમે ઑનલાઇન ફેલાવો પામતા નવા બનાવેલા અને હાલના CSAM વિશે ખૂબ જાગરૂક છીએ. આ બધા રિપોર્ટ કાયદાના અમલીકરણના વિભાગને ઉપલબ્ધ કરાવવામાં આવે છે. આપણે ક્યારેય બેધ્યાન ન થવું જોઈએ કે, આખરે તો આ વાસ્તવિક બાળકો છે, જેઓ જાતીય રૂપે શિકાર અને શોષિત થયા છે.

અમે ઓળખાયેલા 20,000થી વધુ બાળકોને જાણીએ છીએ, જેમનું જાતીય રૂપે શોષણ થયું અને તેમના શોષણનું વીડિયો કે છબીમાં ચિત્રાંકન કરવામાં આવ્યું. આ પીડિતોમાંના હજુ અલબત્ત કેટલાક બાળકો જ છે અને કેટલાક હવે પુખ્ત વયના છે, તેઓ હાલમાં ચાલતી આવી પ્રવૃત્તિ વિશે અત્યંત જાગરૂક છે. તેથી જ અમારા માટે એ મહત્ત્વપૂર્ણ છે કે આવી છબીઓને ન્યૂનતમ કરવા અને તેમનો ફેલાવો ઘટાડવા માટે શક્ય હોય તેટલા પ્રયાસો કરીએ.

એક બાબત જે જાહેર જનતાને સ્પષ્ટ ન થઈ શકે તે એ છે કે જાણીતા CSAMને રદિયો આપવાનું વલણ હોઈ શકે છે, કારણ કે છબીઓ "જૂની" અથવા "વારંવાર ફેલાયેલી" માનવામાં આવી શકે છે. અમે સતત ઢોલ-નગારાં વગાડીને જાહેર જનતાને યાદ કરાવીએ છીએ કે આ વાસ્તવિક બાળકો છે - અને એ કે પેલી 20,000થી વધુ વ્યક્તિઓ ઘા રૂઝવવાનો અને તેમના જીવનનું ફરીથી નિયંત્રણ કરવાનો પ્રયાસ કરી રહી છે. તે વ્યક્તિઓ એ વાતથી ઘણું આશ્વાસન લઈ રહી છે કે Google જેવી કંપનીઓ તેમના જીવનની સૌથી ખરાબ પળોનું ચિત્રણ કરતી છબીઓ કાઢી નાખવાનો દરેક પ્રયાસ કરી રહી છે.

જો તમને ઑનલાઇન બાળકોના જાતીય શોષણની છબીઓ કે કન્ટેન્ટ જોવા મળે, તો તમે તેના વિશે નેશનલ સેન્ટર ફૉર મિસિંગ ઍન્ડ એક્સ્પ્લૉઇટેડ ચિલ્ડ્રન (NCMEC)ને અથવા યોગ્ય સમગ્ર વિશ્વમાંના સત્તાવિભાગને જાણ કરી શકો છો.

ઑનલાઇન બાળકોના જાતીય શોષણ અને શોષણની અન્ય રીતો સામે લડવા માટે તેમજ બાળકોના જાતીય શોષણ સબંધિત કન્ટેન્ટ (CSAM)ના ફેલાવા માટે થતો અમારી સેવાઓનો વપરાશ અટકાવવા માટે, Google પ્રતિબદ્ધ છે. તમે આના વિશે અમારી બાળકોનું રક્ષણ વેબસાઇટ પર વધુ જાણી શકશો.

સાઇબર સિક્યુરિટીમાં વિકાસ

વિશ્વભરમાં અન્ય તમામની તુલનામાં અમે વધુ લોકોને ઑનલાઇન સુરક્ષિત કેવી રીતે રાખીએ છીએ, તે જાણો.

વધુ જાણો