NCMEC, Google, ഇമേജ് ഹാഷിംഗ് സാങ്കേതികവിദ്യ


അമേരിക്കയിലെ നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്‌സ്‌പ്ലോയിറ്റഡ് ചിൽഡ്രൻ (NCMEC) എന്ന സംഘടനയ്ക്ക് ഓൺലൈനിൽ കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കത്തെ (CSAM) കുറിച്ചുള്ള ദശലക്ഷക്കണക്കിന് റിപ്പോർട്ടുകൾ എല്ലാ വർഷവും ലഭിക്കുന്നു. NCMEC-യുടെ സീനിയർ വൈസ് പ്രസിഡന്റും ചീഫ് ഓപ്പറേറ്റിംഗ് ഓഫീസറുമായ മിഷേൽ ഡിലോൺ, സ്ഥാപനത്തിന്റെ വളർച്ചയെക്കുറിച്ചും CSAM കൈകാര്യം ചെയ്യുന്നതിൽ ടെക് കമ്പനികൾ നടത്തുന്ന മുന്നേറ്റങ്ങളെക്കുറിച്ചും Google-ന്റെ Hash Matching API-യെക്കുറിച്ചും സംസാരിക്കുന്നു.

NCMEC-യെ കുറിച്ചും അവിടത്തെ നിങ്ങളുടെ റോൾ എന്താണെന്നും ഞങ്ങളോട് പറയാമോ?


ഞാൻ 20 വർഷത്തിലേറെയായി NCMEC-യിൽ ഉണ്ട്, അതിനാൽ സംഘടനയുടെ പരിണാമവും നമ്മുടെ കുട്ടികൾക്കും അവരുടെ സുരക്ഷയ്ക്കും എതിരായ വെല്ലുവിളികളും ഭീഷണികളും ഞാൻ നേരിട്ട് മനസ്സിലാക്കി. ഒരു CyberTipline അനലിസ്റ്റായാണ് ഞാൻ എന്റെ കരിയർ ആരംഭിച്ചത്.

പൊതുജനങ്ങൾക്ക് കുട്ടികൾ ചൂഷണം ചെയ്യപ്പെടുന്ന സംഭവങ്ങൾ റിപ്പോർട്ട് ചെയ്യുന്നതിനുള്ള ഒരു മാർഗ്ഗം എന്ന നിലയിൽ 1998-ലാണ് CyberTipline സൃഷ്ടിച്ചതും ലോഞ്ച് ചെയ്തതും. പ്രായപൂർത്തിയായ ഒരാൾ തങ്ങളുടെ കുട്ടിയോട് ഓൺലൈനിൽ അനുചിതമായി സംസാരിക്കുന്നുവെന്ന് ആശങ്കയുണ്ടായിരുന്ന മാതാപിതാക്കളിൽ നിന്നും CSAM അടങ്ങിയ വെബ്‌സൈറ്റുകൾ കാണാനിടയായ ആളുകളിൽ നിന്നും ആ സമയത്ത് ഞങ്ങൾക്ക് റിപ്പോർട്ടുകൾ ലഭിച്ചിരുന്നു. തുടർന്ന്, അമേരിക്കയിൽ ഒരു ഫെഡറൽ നിയമം പാസാക്കി, അത് അനുസരിച്ച് യുഎസ് ടെക് കമ്പനികൾ അവരുടെ സിസ്റ്റങ്ങളിൽ CSAM ഉൾപ്പെടുന്ന എന്തെങ്കിലും കണ്ടെത്തിയാൽ CyberTipline-ലേക്ക് റിപ്പോർട്ട് ചെയ്യണം.

ആദ്യകാലങ്ങളിൽ, കുട്ടികളെ ചൂഷണം ചെയ്യുന്നതുമായി ബന്ധപ്പെട്ട നൂറിലധികം റിപ്പോർട്ടുകൾ ഓരോ ആഴ്ചയും ഞങ്ങൾ കൈകാര്യം ചെയ്തിട്ടുണ്ടാകും. ഒരു ടെക് കമ്പനിയിൽ നിന്നുള്ള ആദ്യ റിപ്പോർട്ട് ഞങ്ങൾക്ക് ലഭിച്ചത് 2001-ലാണ്. 2021-ൽ എത്തിനിൽക്കുമ്പോൾ, ഞങ്ങൾക്ക് പ്രതിദിനം 70,000 പുതിയ റിപ്പോർട്ടുകൾ ലഭിക്കുന്നു. ഈ റിപ്പോർട്ടുകളിൽ ചിലത് പൊതുജനങ്ങളിൽ നിന്നുള്ളവയാണ്, എന്നാൽ ഞങ്ങൾക്ക് ലഭിക്കുന്ന റിപ്പോർട്ടുകളിൽ ഭൂരിഭാഗവും ടെക് കമ്പനികളാണ് സമർപ്പിക്കുന്നത്.

CSAM-ന് എതിരെ നടപടികൾ സ്വീകരിക്കാൻ NCMEC എങ്ങനെയാണ് ഓൺലൈൻ കമ്പനികളെ സഹായിക്കുന്നത്?


കമ്പനികൾ എന്തെങ്കിലും സമയോചിതമായ ശ്രമങ്ങൾ നടത്തണമെന്ന് നിയമം ആവശ്യപ്പെടുന്നില്ല. എന്നാൽ, CSAM ഉള്ളടക്കം കണ്ടെത്തുകയോ അല്ലെങ്കിൽ അത്തരം ഉള്ളടക്കം ഉണ്ടെന്ന് തിരിച്ചറിയുകയോ ചെയ്താൽ, അവർ അത് റിപ്പോർട്ട് ചെയ്യണം. CyberTipline-ൽ സമീപ വർഷങ്ങളിൽ ഉണ്ടായിട്ടുള്ള ഗണ്യമായ വളർച്ചയ്ക്ക് ഇത് പ്രേരണയായി. എന്നാൽ കഴിഞ്ഞ അഞ്ച് വർഷത്തിനുള്ളിൽ റിപ്പോർട്ടുകളിൽ വലിയ വർദ്ധനവ് ഉണ്ടായിട്ടുണ്ട്. CSAM സമയോചിതമായി കണ്ടെത്താനും നീക്കം ചെയ്യാനും റിപ്പോർട്ട് ചെയ്യാനും പല ടെക് കമ്പനികളും സ്വയമേവ എടുക്കുന്ന ശ്രമങ്ങളാണ് ആ വർദ്ധനവിന് കാരണമായത്.

നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്‌സ്‌പ്ലോയിറ്റഡ് ചിൽഡ്രനിലെ ഞങ്ങളുടെ മുൻനിര പ്രോഗ്രാമുകളിലൊന്ന് വ്യവസായങ്ങൾക്ക് സംഭാവന ചെയ്യാനും തിരഞ്ഞെടുത്ത NGO-കൾക്ക് സംഭാവന ചെയ്യാനുമുള്ള ഹാഷ് ഷെയറിംഗ് പ്ലാറ്റ്‌ഫോമുകളാണ്. NGO ഹാഷ് ഷെയറിംഗ് പ്ലാറ്റ്‌ഫോം വഴി, താൽപ്പര്യമുള്ള ടെക് കമ്പനികളെ അവരുടെ നെറ്റ്‌വർക്കുകളിൽ നിന്ന് CSAM തടയുന്നതിനുള്ള ശ്രമങ്ങളിൽ സഹായിക്കുന്നതിന് സ്ഥിരീകരിച്ച, ട്രിപ്പിൾ-വെറ്റഡ് CSAM-ന്റെ അഞ്ച് മില്യണിലധികം ഹാഷ് വാല്യൂകൾ NCMEC നൽകുന്നു. Google ഉൾപ്പെടെയുള്ള നിരവധി വൻകിട കമ്പനികൾ ഈ ലിസ്‌റ്റ് പ്രയോജനപ്പെടുത്തുകയും അവരുടെ പ്ലാറ്റ്‌ഫോമുകളിൽ നിന്ന് CSAM നീക്കം ചെയ്യുന്നതിനുള്ള സജീവമായ നടപടികൾ സ്വീകരിക്കുകയും ചെയ്യുന്നു. ടെക് കമ്പനികൾക്ക് ഓരോ NGO-കളിലേക്കും പ്രത്യേകമായി പോകേണ്ടതിന്റെ ആവശ്യകത കുറയ്ക്കാൻ ശ്രമിക്കുന്നതിന്, കുട്ടികൾക്കുള്ള സേവനങ്ങൾ നൽകുന്ന മറ്റ് പ്രശസ്തമായ NGO-കളെ NCMEC-യുടെ ഹാഷ് പ്ലാറ്റ്‌ഫോം വഴി അവരുടെ ഹാഷുകൾ ടെക് കമ്പനികൾക്ക് നൽകാനും ഈ ലിസ്റ്റ് അനുവദിക്കുന്നു.

ഞങ്ങൾ ഒരു ഇൻഡസ്ട്രി ഹാഷ് ഷെയറിംഗ് പ്ലാറ്റ്‌ഫോമും നൽകുന്നു, അത് തിരഞ്ഞെടുത്ത കമ്പനികളെ അവരുടെ സ്വന്തം CSAM ഹാഷുകൾ പരസ്പരം പങ്കിടാൻ അനുവദിക്കുന്നു. ഇത്തരം ഉള്ളടക്കം സമയോചിതമായി കണ്ടെത്താൻ തയ്യാറുള്ളതും പ്രാപ്തിയുള്ളതുമായ എല്ലാ കമ്പനികൾക്കും അതിനാവശ്യമായ എല്ലാ ടൂളുകളും ഉണ്ടെന്നും കമ്പനികൾക്ക് അവരുടെ സ്വന്തം CSAM ഹാഷുകൾ പരസ്പരം പങ്കിടാനാകുമെന്നും ഞങ്ങൾ ഉറപ്പാക്കുന്നു. ലിസ്റ്റിലെ മൊത്തം ഹാഷുകളുടെ ഏകദേശം 74% നൽകുന്ന Google ആണ് ഈ പ്ലാറ്റ്‌ഫോമിലെ ഏറ്റവും വലിയ സംഭാവകൻ.

ഞങ്ങൾക്ക് ഇപ്പോൾ ലഭിക്കുന്ന റിപ്പോർട്ടുകളുടെ എണ്ണം കാണുമ്പോൾ നിങ്ങൾക്ക് ഊഹിക്കാനാകുന്നത് പോലെ, ഒരേ ചിത്രങ്ങൾ ഒന്നിലധികം തവണ റിപ്പോർട്ട് ചെയ്യുന്നുണ്ടെന്ന് ഞങ്ങൾ മനസ്സിലാക്കുന്നു. അറിയപ്പെടുന്ന ഉള്ളടക്കം കണ്ടെത്താൻ കമ്പനികൾ ഹാഷ് വാല്യൂ ഉപയോഗിക്കുന്നതിനാൽ ഇത് പൂർണ്ണമായും മനസ്സിലാക്കാം, എന്നാൽ അറിയപ്പെടുന്ന ഉള്ളടക്കം വർദ്ധിക്കുന്നതിനനുസരിച്ച്, ഓൺലൈനായി നിർമ്മിക്കുകയും പങ്കിടുകയും ചെയ്ത പുതിയ ഉള്ളടക്കം തിരിച്ചറിയാൻ NCMEC-ക്ക് കഴിയേണ്ടതുണ്ട്.

Google-ന്റെ Hash Matching API, CyberTipline റിപ്പോർട്ടുകൾക്ക് മുൻഗണന നൽകാൻ NCMEC-യെ സഹായിച്ചു. ഈ പ്രോജക്റ്റ് എങ്ങനെയാണ് ആരംഭിച്ചത് എന്നതിനെക്കുറിച്ച് ഞങ്ങളോട് കൂടുതൽ പറയാമോ?


ഹാഷ് ഷെയറിംഗ് പ്രോഗ്രാമിന്റെ വിജയം പുതിയൊരു വെല്ലുവിളി സൃഷ്ടിച്ചു: വലിയ തോതിൽ റിപ്പോർട്ടുകൾ ലഭിച്ചത് കൈകാര്യം ചെയ്യുക എന്നത് വലിയ വെല്ലുവിളിയായിരുന്നു. NCMEC പോലെയുള്ള സന്നദ്ധ സ്ഥാപനത്തിന് ഇത്രയും റിപ്പോർട്ടുകൾ കൈകാര്യം ചെയ്യാൻ മതിയായ കമ്പ്യൂട്ടിംഗ് ശേഷി ഇല്ല. അതുകൊണ്ടാണ്, Hash Matching API ടൂൾ നിർമ്മിക്കാനുള്ള Google-ന്റെ പിന്തുണയിൽ ഞങ്ങൾ വളരെയധികം ആവേശഭരിതരായതും നന്ദി രേഖപ്പെടുത്തുന്നതും.

2020-ൽ ഞങ്ങൾക്ക് 21 ദശലക്ഷം CyberTipline റിപ്പോർട്ടുകൾ ലഭിച്ചു, എന്നാൽ അവയിൽ ഓരോന്നിലും ഒന്നിലധികം ചിത്രങ്ങളും വീഡിയോകളും ഉണ്ടാകാം. ആ 21 മില്യൺ റിപ്പോർട്ടുകളിൽ കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കമുള്ള ഏകദേശം 70 മില്യൺ ചിത്രങ്ങളും വീഡിയോകളും ഉൾപ്പെടുന്നു. ആ റിപ്പോർട്ടുകളിൽ ഡ്യൂപ്ലിക്കേഷൻ ഉണ്ടെന്ന് വ്യക്തമാണ്, NCMEC-യ്ക്ക് കൃത്യമായ പൊരുത്തങ്ങൾ എളുപ്പത്തിൽ കണ്ടെത്താനാകുമെങ്കിലും, ഇതുവരെ കണ്ടിട്ടില്ലാത്ത ചിത്രങ്ങൾ തിരിച്ചറിയുന്നതിനും മുൻഗണന നൽകുന്നതിനുമായി തത്സമയം ദൃശ്യപരമായി സമാനമായ പൊരുത്തങ്ങൾ വലിയ തോതിൽ കണ്ടെത്താൻ ഞങ്ങൾക്ക് കഴിയില്ല. സജീവമായി ലൈംഗികമായി ദുരുപയോഗം ചെയ്യപ്പെടുന്ന കുട്ടികളെ തിരിച്ചറിയുന്നതിനുള്ള വളരെ പ്രധാനപ്പെട്ട ഘടകമാണത്.

Hash Matching API കാരണം NCMEC-ന് എന്തെല്ലാം നേട്ടങ്ങളാണ് ഉണ്ടായത്?


ഈ നിർണ്ണായക വിവരങ്ങൾ നേടുകയും അത് കഴിയുന്നത്ര വേഗത്തിൽ നിയമ നിർവ്വഹണ സംവിധാനങ്ങളിലേക്ക് എത്തിക്കുകയും ചെയ്യുക എന്ന വളരെ പ്രധാനപ്പെട്ട ഒരു ജോലിയാണ് ഞങ്ങൾ ചെയ്യുന്നത്. CyberTipline റിപ്പോർട്ടുകളുടെ മൂല്യം വർദ്ധിപ്പിക്കുന്നതിനുള്ള ഒരു പുതിയ മാർഗ്ഗം നൽകുന്നു എന്നതാണ് ഈ ടൂളിന്റെ ഒരു നേട്ടം.

കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കമുള്ള എല്ലാ ചിത്രങ്ങളും വീഡിയോകളും പരിശോധിക്കുകയും അത് ലേബൽ ചെയ്യുകയും ചെയ്യുന്ന ഒരു പ്രവർത്തനം ഞങ്ങൾ നടത്തുന്നുണ്ട്. ഉദാഹരണത്തിന്, 'ഇത് CSAM ആണ്', 'ഇത് CSAM അല്ല', അല്ലെങ്കിൽ 'ഇതിൽ കുട്ടിയുടെയോ വ്യക്തിയുടെയോ പ്രായം തിരിച്ചറിയാൻ പ്രയാസമാണ്.' എന്നാൽ, നിങ്ങൾക്ക് സങ്കൽപ്പിക്കാനാകുന്നതുപോലെ, കഴിഞ്ഞ വർഷം മാത്രം 70 മില്യൺ ഫയലുകൾ ലഭിച്ചു, അവരെയെല്ലാം ലേബൽ ചെയ്യാൻ ഞങ്ങൾക്ക് ഒരിക്കലും കഴിയില്ല. ഉള്ളടക്കം താരതമ്യം ചെയ്യാൻ ഈ API ഞങ്ങളെ അനുവദിക്കുന്നു. ഞങ്ങൾ ഒരു ഫയൽ ടാഗ് ചെയ്യുമ്പോൾ, ദൃശ്യപരമായി സമാനമായ എല്ലാ ഫയലുകളും തിരിച്ചറിയാൻ API ഞങ്ങളെ അനുവദിക്കുന്നു, അത് ഞങ്ങൾ തത്സമയം ഉചിതമായി ടാഗ് ചെയ്യുന്നു. അതിലൂടെ, ഞങ്ങൾക്ക് 26 മില്യണിലധികം ചിത്രങ്ങൾ ടാഗ് ചെയ്യാൻ കഴിഞ്ഞു.

ഞങ്ങൾ നിയമ നിർവ്വഹണ സംവിധാനങ്ങൾക്ക് അയയ്‌ക്കുന്ന റിപ്പോർട്ടുകൾക്ക് കൂടുതൽ മൂല്യം നൽകാൻ ഇത് സഹായിക്കുന്നു, അതിലൂടെ, അവലോകനം ചെയ്യാൻ മുൻഗണന നൽകേണ്ട റിപ്പോർട്ടുകൾ ഏതൊക്കെയാണെന്ന് തീരുമാനിക്കാൻ അവർക്ക് കഴിയും. ഇതുവരെ കണ്ടിട്ടില്ലാത്ത ചിത്രങ്ങൾ ഏതൊക്കെയെന്ന് തിരിച്ചറിയാനും ഇത് സഹായിക്കുന്നു. ആ ചിത്രങ്ങളിൽ പലപ്പോഴും ലോകത്തെവിടെയെങ്കിലും നിന്നുള്ള ലൈംഗികമായി ദുരുപയോഗം ചെയ്യപ്പെടുന്ന ഒരു കുട്ടി ഉണ്ടാകാം. വൈക്കോൽ കൂനയിൽ നിന്ന് സൂചി കണ്ടെത്തുക എന്ന് പറയുന്നതുമായി ഈ സാഹചര്യത്തെ താരതമ്യം ചെയ്താൽ, ഇവിടെ രക്ഷിക്കപ്പെടേണ്ട കുട്ടിയാണ് സൂചി. ഉടനടി സഹായം ആവശ്യമുള്ള കുട്ടികൾ അടങ്ങുന്ന ചിത്രങ്ങൾ എല്ലാം കണ്ടെത്താൻ Google-ന്റെ ടൂൾ ഞങ്ങളെ അനുവദിച്ചു.

CyberTipline-ൽ നിന്നുള്ള റിപ്പോർട്ടുകൾ പ്രോസസ് ചെയ്ത് CSAM ഉള്ളടക്കം വിശകലനം ചെയ്യുന്ന NCMEC-യുടെ മനുഷ്യ അവലോകകരുടെ ക്ഷേമത്തിൽ എന്ത് സ്വാധീനമാണ് ഇതുണ്ടാക്കിയത്?


ഈ CSAM കണ്ടെത്തൽ ടൂൾ ഞങ്ങളുടെ ജീവനക്കാർക്ക് ഒരേ ചിത്രങ്ങൾ ആവർത്തിച്ച് കാണേണ്ടതിന്റെ ആവശ്യകത കുറച്ചിരിക്കുന്നു. ഇതിൽ കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കമുള്ള ചിത്രങ്ങളുണ്ട്, ആ കുട്ടികൾക്ക് ഇപ്പോൾ പ്രായപൂർത്തിയായേക്കാം. ഈ ചിത്രങ്ങൾ ഓൺലൈനിൽ നിലനിൽക്കുകയും ആ വ്യക്തികൾ ഇരകളായി തുടരുന്നതിന് കാരണമാകുകയും ചെയ്യുന്നു. ഈ ചിത്രങ്ങൾ ടാഗ് ചെയ്യുന്നത് അടുത്തിടെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യപ്പെടുന്ന കുട്ടികളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കാൻ അവരെ അനുവദിക്കും, കൂടാതെ, ഈ നിയമവിരുദ്ധ ചിത്രങ്ങൾ കാഴ്ചയിൽ നിന്ന് നീക്കം ചെയ്യും.

അതുകൊണ്ടാണ് ഞങ്ങളുടെ സ്റ്റാഫ് ഇവിടെയുള്ളത്; ആ കുട്ടികളെ സഹായിക്കാൻ അവർ ആഗ്രഹിക്കുന്നു. ആരോഗ്യം മികച്ചതാക്കുന്നതിനും ദോഷകരമായ ഉള്ളടക്കം ആവർത്തിച്ച് കാണുന്നത് ഒഴിവാക്കുന്നതിനുമുള്ള ഞങ്ങളുടെ സ്റ്റാഫിന്റെ കഴിവിലെ മികച്ച പുരോഗതിയാണ് ഈ മാറ്റം.

ഓൺലൈനിൽ ഇത്തരത്തിലുള്ള ഉള്ളടക്കങ്ങൾക്കെതിരെ നടപടികൾ സ്വീകരിക്കുന്നതിന് ടെക് കമ്പനികളെ മൊത്തത്തിൽ ഈ ജോലി എങ്ങനെ സഹായിക്കുന്നു?


CSAM-നെതിരെയുള്ള ആഗോള പോരാട്ടത്തെ പിന്തുണയ്ക്കാൻ കമ്പനികൾക്ക് CSAM കണ്ടെത്തൽ സാങ്കേതികവിദ്യ Google നൽകുന്നുണ്ടെന്നും Hash Matching API തന്നെ NCMEC അല്ലാതെ മറ്റ് പല സ്ഥാപനത്തിലും നേരിട്ട് സ്വാധീനം ചെലുത്തുന്നുണ്ടെന്നും ഞങ്ങൾക്കറിയാം. എല്ലാ ടെക് കമ്പനികൾക്കും നാഷണൽ സെന്ററിൽ നിന്നുള്ള കൂടുതൽ കാര്യക്ഷമവും ഉപയോഗപ്രദവുമായ പ്രക്രിയയുടെ പ്രയോജനം ലഭിക്കുന്നു. ഈ ടൂൾ ഇല്ലാതിരുന്ന കാലത്തെ അപേക്ഷിച്ച്, കൂടുതൽ മൂല്യവത്തായ രീതിയിൽ CyberTipline റിപ്പോർട്ടുകളോട് സമയബന്ധിതമായി പ്രതികരിക്കുകയും അവ കൈകാര്യം ചെയ്യുകയും ചെയ്യുന്നു.

ടെക് കമ്പനികൾക്കും നിയമ നിർവ്വഹണ സംവിധാനങ്ങൾക്കും അതിജീവിതർക്കും അവരുടെ കുടുംബങ്ങൾക്കുമുള്ള ഒരു കേന്ദ്ര ഉറവിടമാണ് NCMEC. പ്രശ്‌നങ്ങളെക്കുറിച്ചും അവയുടെ പരിഹാരങ്ങളെക്കുറിച്ചും ഞങ്ങൾ വളരെ വ്യത്യസ്തമായ രീതിയിൽ ചിന്തിക്കുന്നു. CyberTipline ഉള്ളതിനാൽ, ഓൺലൈനിൽ പ്രചരിക്കുന്ന പുതുതായി സൃഷ്‌ടിച്ചതും നിലവിലുള്ളതുമായ CSAM-നെ കുറിച്ച് ഞങ്ങൾക്ക് നന്നായി അറിയാം. ഈ റിപ്പോർട്ടുകളെല്ലാം നിയമ നിർവ്വഹണ സംവിധാനങ്ങൾക്ക് ലഭ്യമാക്കിയിട്ടുണ്ട്. ഇതിന്റെ അവസാനം, ലൈംഗികമായി ദുരുപയോഗം ചെയ്യപ്പെടുകയും ചൂഷണം ചെയ്യപ്പെടുകയും ചെയ്ത യഥാർത്ഥ കുട്ടികളാണ് ഉള്ളത് എന്ന കാര്യം നാം ഒരിക്കലും മറക്കരുത്.

ലൈംഗികമായി ദുരുപയോഗം ചെയ്യപ്പെടുകയും അവരുടെ ദുരുപയോഗം ഒരു വീഡിയോയിലോ ചിത്രത്തിലോ പകർത്തുകയും ചെയ്ത, തിരിച്ചറിയപ്പെട്ട 20,000-ത്തിലധികം കുട്ടികളെ ഞങ്ങൾക്കറിയാം. അതിജീവിതരിൽ ചിലർ ഇപ്പോഴും കുട്ടികളാണ്, ചിലർ ഇപ്പോൾ പ്രായപൂർത്തിയായ വ്യക്തികളാണ്, തങ്ങളെ നിരന്തരം ഇരകളാക്കുന്നതിനെക്കുറിച്ച് അവർക്ക് വ്യക്തമായി അറിയാം. അതിനാൽ, ഈ ചിത്രങ്ങളുടെ വ്യാപനം കുറയ്ക്കുന്നതിനും ഇല്ലാതാക്കുന്നതിനും നമുക്ക് കഴിയുന്നത് പോലെ ശ്രമിക്കുക എന്നത് വളരെ പ്രധാനമാണ്.

ആളുകൾക്ക് അറിയാത്ത ഒരു കാര്യം, ചിത്രങ്ങൾ "പഴയത്" അല്ലെങ്കിൽ "വീണ്ടും വിതരണം ചെയ്തത്" ആയി കണക്കാക്കി മുമ്പേ തിരിച്ചറിഞ്ഞ CSAM ഒഴിവാക്കാനുള്ള പ്രവണതയുണ്ട് എന്നതാണ്. 20,000-ത്തിലധികം കുട്ടികൾ അവരുടെ ജീവിതത്തിൽ എന്താണ് സംഭവിച്ചതെന്ന് മറക്കാനും ജീവിതത്തിന്റെ നിയന്ത്രണം വീണ്ടെടുക്കാനും ശ്രമിക്കുന്നു, ഇവർ യഥാർത്ഥ കുട്ടികളാണെന്ന് ആളുകളെ ഓർമ്മിപ്പിക്കാൻ ഞങ്ങൾ നിരന്തരം പരിശ്രമിക്കുന്നു. തങ്ങളുടെ ജീവിതത്തിലെ ഏറ്റവും മോശം നിമിഷങ്ങൾ ചിത്രീകരിക്കുന്ന ചിത്രങ്ങൾ നീക്കം ചെയ്യാൻ Google പോലുള്ള കമ്പനികൾ എല്ലാ ശ്രമങ്ങളും നടത്തുന്നുണ്ടെന്ന് അറിയുന്നത് അവർക്ക് വലിയ ആശ്വാസം നൽകുന്നു.

കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കമുള്ള ചിത്രങ്ങളോ വസ്‌തുക്കളോ ഓൺലൈനിൽ കണ്ടാൽ, നിങ്ങൾക്ക് അത് നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്‌സ്‌പ്ലോയിറ്റഡ് ചിൽഡ്രൻ (NCMEC) അല്ലെങ്കിൽ മറ്റ് ഉചിതമായ ലോകമെമ്പാടുമുള്ള അതോറിറ്റിക്ക് റിപ്പോർട്ട് ചെയ്യാം. 

ഓൺലൈനിൽ കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്നതിനും ചൂഷണം ചെയ്യുന്നതിനുമെതിരെ പോരാടുന്നതിനും കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കം (CSAM) പ്രചരിപ്പിക്കാൻ ഞങ്ങളുടെ സേവനങ്ങൾ ഉപയോഗിക്കുന്നത് തടയാനും Google പ്രതിജ്ഞാബദ്ധമാണ്. ഞങ്ങളുടെ, കുട്ടികളെ സംരക്ഷിക്കുന്നതുമായി ബന്ധപ്പെട്ട വെബ്‌സൈറ്റിൽ നിങ്ങൾക്ക് ഇതിനെക്കുറിച്ച് കൂടുതലറിയാൻ കഴിയും.

സൈബർ സുരക്ഷയുമായി ബന്ധപ്പെട്ട മുന്നേറ്റങ്ങൾ

ലോകത്ത് മറ്റാരേക്കാളും കൂടുതൽ ആളുകളെ ഞങ്ങൾ ഓൺലൈനിൽ സുരക്ഷിതരായി നിലനിർത്തുന്നത് എങ്ങനെയെന്ന് അറിയുക.

കൂടുതലറിയുക