NCMEC, Google এবং ইমেজ হ্যাশিং প্রযুক্তি


মার্কিন যুক্তরাষ্ট্রে প্রতি বছর, ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (NCMEC) ইন্টারনেটে শিশু যৌন নিগ্রহের কন্টেন্ট (CSAM) সংক্রান্ত লক্ষ লক্ষ অভিযোগ পায়। NCMEC-এর সিনিয়র ভাইস প্রেসিডেন্ট এবং চিফ অপারেটিং অফিসার, মিশেল ডিলাউন, সংস্থার ক্রমবিবর্তন সম্পর্কে কথা বলেছেন। তিনি CSAM-এর চ্যালেঞ্জ মোকাবিলায় টেক কোম্পানিগুলোর প্রচেষ্টা এবং Google-এর হ্যাশ ম্যাচিং API-এর ব্যবহার নিয়ে আলোচনা করছেন।

NCMEC সম্পর্কে আমাদের বলুন এবং এই সংস্থায় আপনার ভূমিকা কী?


আমি ২০ বছরেরও বেশি সময় ধরে NCMEC-এর সাথে যুক্ত। এই সময়ে আমি এই প্রতিষ্ঠানটিকে বড় হতে দেখেছি এবং নানা চ্যালেঞ্জের মুখোমুখি হতে দেখেছি। এখানে কাজ করার সময় আমি দেখেছি আমাদের সমাজে শিশুরা কতটা বিপদগ্রস্ত এবং তাদের নিরাপত্তা কতটা গুরুত্বপূর্ণ। আমি এখানে CyberTipline বিশ্লেষক হিসাবে আমার কর্মজীবন শুরু করি।

CyberTipline ১৯৯৮ সালে শুরু হয়েছিল। এর উদ্দেশ্য ছিল লোকেদের এমন একটি প্ল্যাটফর্ম দেওয়া যেখানে তারা শিশু নির্যাতনের সম্ভাব্য ঘটনা রিপোর্ট করতে পারেন। শুরুর দিকে, আমরা বাচ্চাদের বাবা-মায়ের কাছ থেকে অভিযোগ পেতাম যে ইন্টারনেটে কোনো প্রাপ্তবয়স্ক ব্যক্তি তাদের সন্তানের সম্পর্কে অপমানজনক কথা বলেছে। লোকে সেইসব ওয়েবসাইটের বিরুদ্ধেও অভিযোগ করতেন যাতে CSAM থাকত। তবে, আমেরিকায় এই ব্যাপারে ফেডারেল আইন প্রণীত হওয়ার পরে এতে পরিবর্তন আসে। এই আইনটি, সমস্ত মার্কিন টেক কোম্পানির জন্য তাদের সিস্টেমে হওয়া CSAM ঘটনা CyberTipline-এ রিপোর্ট করা বাধ্যতামূলক করে।

শুরুর দিকে, আমরা সপ্তাহে প্রায় ১০০টির মতো শিশু নির্যাতনের অভিযোগ পেতাম। ২০০১ সালে আমরা প্রথম কোনো টেক কোম্পানির থেকে এমন অভিযোগ পাই। যদিও, সময় দ্রুত বদেলেছে এবং ২০২১ সালে, আমরা প্রতিদিন প্রায় ৭০,০০০ নতুন অভিযোগ পেয়েছি। এগুলোর মধ্যে কিছু অভিযোগ আমরা সাধারণ মানুষের কাছ থেকে পাই, তবে বেশিরভাগ অভিযোগই টেক কোম্পানির তরফ থেকে জমা পড়ে।

কীভাবে NCMEC, অনলাইন কোম্পানিগুলোকে CSAM-এর বিরুদ্ধে লড়াই করতে সাহায্য করে?


আইন অনুসারে, CSAM আটকাতে কোম্পানিগুলোর পক্ষে কোনো পদক্ষেপ নেওয়ার প্রয়োজন নেই। তবে, CSAM কন্টেন্ট দেখলে বা তার তথ্য পেলে তারা অভিযোগ জানাবে বলে আশা করা হয়। এর ফলে টেক কোম্পানিগুলো উত্সাহ পেয়েছে এবং এই কারণেই CyberTipline গত কয়েক বছরে সফল এবং কার্যকর প্রমাণিত হয়েছে। তবে গত পাঁচ বছরে অভিযোগের সংখ্যা ব্যাপকভাবে বেড়েছে। এই বৃদ্ধির বড় কারণ হলো টেক কোম্পানিগুলো স্বেচ্ছায় এই নিয়ে কাজ করছে। তারা নিজেদের উদ্যোগে CSAM শনাক্ত করছে, মুছে দিচ্ছে এবং তার অভিযোগ করছে।

ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন-এ, আমরা হ্যাশ শেয়ারিং প্ল্যাটফর্ম নামে একটি ফ্ল্যাগশিপ প্রোগ্রাম চালাই। এর অধীনে, শিল্প এবং নির্বাচিত এনজিও উভয়ই বিভিন্ন প্ল্যাটফর্মের মাধ্যমে অবদান রাখতে পারে। NCMEC, এনজিওর হ্যাশ শেয়ারিং প্ল্যাটফর্মের সাহায্যে টেক কোম্পানিগুলোকে ৫ মিলিয়নেরও বেশি হ্যাশ ভ্যালু সরবরাহ করে। তিনটি পরীক্ষায় CSAM নিশ্চিত হওয়ার পর এই তথ্য ওই কোম্পানিগুলোকে দেওয়া হয়। এটি, কোম্পানিগুলিকে তাদের নেটওয়ার্কে CSAM-এর বিরুদ্ধে লড়তে সাহায্য করে। Google সহ অনেক বড় কোম্পানি এই লিস্ট থেকে সাহায্য পেয়েছে। এর পাশাপাশি, নিজেদের প্ল্যাটফর্ম থেকে CSAM সরানোর জন্য তারাও বেশ কিছু পদক্ষেপ নিচ্ছে। শিশুদের জন্য কাজ করা একাধিক স্বনামধন্য এনজিও এই লিস্ট থেকে সাহায্য পেয়েছে। তারা NCMEC-র হ্যাশ প্ল্যাটফর্ম ব্যবহার করে টেক কোম্পানিগুলোকে হ্যাশ দিতে সক্ষম হয়। NCMEC চেষ্টা করছে যাতে, টেক কোম্পানিগুলোর ডেটা পেতে আলাদা-আলাদা এনজিওতে যেতে না হয়।

আমরা ইন্ডাস্ট্রির জন্য একটি হ্যাশ শেয়ারিং প্ল্যাটফর্মও তৈরি করেছি। এর সাহায্যে, নির্বাচিত কোম্পানিগুলো তাদের CSAM হ্যাশ নিজেদের মধ্যে শেয়ার করে নিতে পারে। যেসব কোম্পানী এই ধরনের কনটেন্ট সনাক্ত করতে চায় এবং তা করতে পারে তাদের কাছে যেন এই কাজ করার জন্য প্রয়োজনীয় সমস্ত টুল থাকে, পাশাপাশি তারা যাতে একে অপরের সাথে তাদের CSAM হ্যাশ শেয়ার করতে পারে, আমরা তা নিশ্চিত করছি। এর পেছনে সবচেয়ে বড় অবদান Google-এর। এই লিস্টে থাকা মোট হ্যাশের প্রায় ৭৪% Google যোগ করেছে।

আমরা এখন যে পরিমাণ অভিযোগ পেয়েছি তা থেকে অনুমান করা যায় যে আমরা একই কনটেন্টের জন্য বিভিন্ন প্ল্যাটফর্মে একাধিক অভিযোগ পেয়েছি। এটি হতে পারে, কারণ কোম্পানিগুলো পুরানো কনটেন্ট সনাক্ত করতে হ্যাশ ভ্যালু ব্যবহার করে। তবে, পুরনো কনটেন্ট সম্পর্কিত অভিযোগের সংখ্যা বাড়ার কারণে, ইন্টারনেটে শেয়ার করা নতুন কনটেন্ট সনাক্ত করা NCMEC-এর জন্য বেশি গুরুত্বপূর্ণ হয়ে ওঠে।

Google-এর হ্যাশ ম্যাচিং API অগ্রাধিকারের ভিত্তিতে NCMEC-কে CyberTipline রিপোর্টগুলি পর্যালোচনা করতে সাহায্য করেছে। এই প্রোজেক্ট কীভাবে শুরু করা হয়েছিল সেই সম্পর্কে বিস্তারিতভাবে আমাদের বলবেন?


হ্যাশ শেয়ারিং প্রোগ্রামের সফলতা এক নতুন চ্যালেঞ্জ তৈরি করেছে: আমরা এত বেশি সংখ্যায় অভিযোগ পেতে শুরু করেছি যে সেগুলো নিয়ে কাজ করা কঠিন হয়ে পড়েছে। NCMEC-এর মতো অলাভজনক সংস্থার কাছে এত বেশি সংখ্যায় অভিযোগ পর্যালোচনা করার মতো কম্পিউটেশনাল ক্ষমতা নেই। তাই, আমাদের Google-এর সাহায্যের প্রয়োজন ছিল এবং আমরা কৃতজ্ঞ যে Google আমাদের হ্যাশ ম্যাচিং API টুল তৈরি করতে সাহায্য করেছে।

২০২০ সালে আমরা ২১ মিলিয়ন CyberTipline অভিযোগ পেয়েছি, তবে এই অভিযোগের প্রত্যেকটিতে একাধিক ছবি ও ভিডিও থাকতে পারে। এই ২১ মিলিয়ন অভিযোগের মধ্যে শিশু যৌন নির্যাতনের চিত্র এবং ভিডিওর সংখ্যা প্রায় ৭০ মিলিয়ন ছিল। অর্থাৎ এসব অভিযোগের মধ্যে ডুপ্লিকেট অভিযোগের সংখ্যা অনেক বেশি। NCMEC-এর পক্ষে এগুলোর মধ্যে সঠিক মিল সনাক্ত করা সহজ। তবে, এত বড় সংখ্যক অভিযোগে, রিয়েল টাইমে একই ছবি বা ভিডিওতে কাজ করা কঠিন। বিশেষ করে তখন, যখন প্রথমবার পাওয়া ছবিগুলোকে চিহ্নিত করে সেগুলোকে অগ্রাধিকার দিতে হয়। এটি করা আমাদের জন্য গুরুত্বপূর্ণ, কারণ এভাবেই আমরা যৌন নির্যাতনের শিকার শিশুদের সনাক্ত করতে পেরেছি।

হ্যাশ ম্যাচিং API-এর কারণে NCMEC-এর কী কী সুবিধা হয়েছে?


আমাদের দায়িত্ব অত্যন্ত গুরুত্বপূর্ণ। আমরা এই গুরুত্বপূর্ণ তথ্য সংগ্রহ করে তা দ্রুত আইন প্রয়োগকারী সংস্থার কাছে জমা করি। এই টুলের অন্যতম সুবিধা হল এটি আমাদেরকে CyberTipline-এ পাওয়া অভিযোগগুলোতে অভিনব উপায়ে বেশি করে ভ্যালু যোগ করতে দেয়।

আমরা একটি নির্দিষ্ট প্রোগ্রাম অনুযায়ী কাজ করি। এটি আমাদেরকে শিশুদের যৌন নির্যাতন দেখানো প্রতিটি ছবি এবং ভিডিও বিশ্লেষণ করতে সাহায্য করে। পাশাপাশি, আমরা লেবেলও যোগ করতে পারি। যেমন, ‘এটি CSAM’, ‘এটি CSAM নয়’, বা ‘এই কন্টেন্টে দেখতে পাওয়া শিশু বা ব্যক্তির বয়স নির্ধারণ করা কঠিন’। তবে, এটা বোধগম্য যে শুধুমাত্র গত এক বছরে আমরা ৭০ মিলিয়ন ফাইলের উপর কাজ করেছি। এতগুলো ফাইলে কাজ করা, সেগুলোকে লেবেল করা অসম্ভব। এই API-এর সাহায্যে আমরা তুলনা করতে পারি। আমরা কোনো ফাইল ট্যাগ করলে, API একই রকমের দেখতে ফাইলগুলোকে শনাক্ত করতে সাহায্য করে। এর উপর ভিত্তি করে, আমরা সেই ফাইলগুলোকে রিয়েল টাইমে ট্যাগ করতে। এর সাহায্যে, আমরা ২৬ মিলিয়নেরও বেশি ছবি ট্যাগ করতে পেরেছি।

এর ফলে আমরা আইন প্রয়োগকারী সংস্থার কাছে পাঠানো অভিযোগগুলোতে ভ্যালু যোগ করতে পারি। যাতে তারা সহজেই অগ্রাধিকারের ভিত্তিতে কোন কোন রিপোর্ট প্রথমে পর্যালোচনা করতে হবে তা ঠিক করতে পারেন। এছাড়া, এটি আগে না দেখা ছবি শনাক্ত করতে সাহায্য করে। এইসব ছবিতে প্রায়ই এমন কোনো শিশু থাকে যে বিশ্বের কোনো এক প্রান্তে যৌন নির্যাতনের শিকার হচ্ছে। আমরা যেন খড়ের গাদার মধ্যে ছুঁচ খুঁজছি। এক্ষেত্রে ছুঁচটি হল একজন শিশু, যাকে উদ্ধার করা প্রয়োজন। Google-এর টুলের সাহায্যে আমরা সেইসব ছবি সনাক্ত করতে পারি, যার মধ্যে থাকা শিশুদের অবিলম্বে সাহায্যের প্রয়োজন।

এবং কীভাবে এটি CyberTipline-এ পাওয়া অভিযোগ ও CSAM কন্টেন্ট বিশ্লেষণকারী NCMEC পর্যালোচকদের কষ্টকে কম করেছে?


এই CSAM সনাক্তকরণ টুলের কারণে আমাদের কর্মীদের একই ছবি বারবার পর্যালোচনা করতে হয় না। এইসব ছবিতে যৌন নির্যাতনের শিকার হওয়া সেই শিশুদের দেখানো হয়েছে যারা সম্ভবত এখন প্রাপ্তবয়স্ক হয়ে গেছে। এইসব ছবি সবসময় ইন্টারনেটে উপস্থিত থাকে এবং এর কারণে তারা অবিরাম হয়রানির শিকার হতে থাকে। এই ধরনের ছবি ট্যাগ করার ফলে কর্মীরা সম্প্রতি যৌন নিপীড়নের শিকার হওয়া শিশুদের উপর ফোকাস করতে পারেন ও সেইসাথে অবৈধ ছবি ইন্টারনেটে চিহ্নিত করে সেখান থেকে সরিয়ে ফেলা যায়।

এই ধরনের কাজে আমাদের কর্মীদের ভূমিকা গুরুত্বপূর্ণ হয়ে ওঠে। তারা শিশুদের সাহায্য করতে চান। এই প্রযুক্তি, কর্মীদের স্বাস্থ্যের উপর খারাপ প্রভাব কমাতে আমাদের প্রচুর সাহায্য করেছে। টুলের সাহায্যে, কর্মীরা সেইসব কন্টেন্ট বারবার দেখা থেকে রক্ষা পান যা তাদের স্বাস্থ্যের ক্ষতি করতে পারে।

কীভাবে এই কাজটি টেক কোম্পানিগুলোকে ইন্টারনেটে এই ধরনের কন্টেন্টের বিরুদ্ধে লড়াই করতে সাহায্য করে?


আমরা জানি যে CSAM-এর বিরুদ্ধে বিশ্বব্যাপী লড়াইকে আরও মজবুত করতে, Google সারা বিশ্বের কোম্পানিগুলোকে CSAM সনাক্তকরণ প্রযুক্তি দেয়। এছাড়াও, হ্যাশ ম্যাচিং API টুলটি NCMEC-এর পাশাপাশি অনেক কোম্পানিকে সরাসরি সহায়তা দিয়েছে। টেক কোম্পানিগুলো আগের তুলনায় ন্যাশনাল সেন্টারের আরও সংগঠিত এবং ভাল প্রক্রিয়া থেকে উপকৃত হয়েছে। আমরা সময়মত CyberTipline-এ পাওয়া অভিযোগগুলো পর্যালোচনা করতে ও সেগুলোতে আরও ভ্যালু যোগ করতে সক্ষম হই। আমাদের কাছে এই টুলটি না থাকলে এই কাজ করা কঠিন হতো।

NCMEC, টেক কোম্পানি, আইন প্রয়োগকারী সংস্থা, যৌন নির্যাতনের শিকার ব্যক্তি ও তাদের পরিবারের জন্য একটি মুখ্য সংস্থান। আমরা সমস্যা ও সমস্যার সমাধানকে খুব ভিন্নভাবে দেখি ও বুঝি। CyberTipline-এর সাহায্যে, আমরা ইন্টারনেটে শেয়ার করা নতুন এবং বিদ্যমান CSAM সম্পর্কে সচেতন থাকতে পারি। এসব অভিযোগ আইন প্রয়োগকারী সংস্থার কাছে পাঠানো হয়। তবে, আমাদের ভুলে গেলে চলবে না যে আমরা যৌন নির্যাতন ও হয়রানির শিকার শিশুদের জন্য কাজ করছি।

আমরা ২০,০০০-এরও বেশি শিশুর কথা জানি যারা যৌন নির্যাতনের শিকার হয়েছে এবং এই সময় তাদের ভিডিও করা বা ছবি তোলা হয়েছে। এই যৌন নির্যাতনের শিকারদের মধ্যে কিছু এখনও শিশু আছে এবং কিছু প্রাপ্তবয়স্ক হয়েছে। তারা খুব ভালোভাবে জানে যে তারা নিপীড়নের শিকার হয়েছে। তাই, এইসব ছবি শেয়ার করা থেকে আটকাতে আমাদের যথাসাধ্য চেষ্টা করা গুরুত্বপূর্ণ।

এমনটা হতে পারে যে লোকেরা এই বিষয়ে জানে না, তবে লোকেদের মধ্যে পুরানো CSAM উপেক্ষা করার প্রবণতা থাকে। এর কারণ হলো লোকেরা ধরে নেয় যে সেই ছবিগুলো "পুরানো" অথবা সেগুলোকে "আগেও শেয়ার করা হয়েছে"। আমরা ক্রমাগত লোকেদের মনে করিয়ে দিই যে এইসব ছবিতে দেখানো শিশুরা আসল। এই শিশুরা এখনও এই ধাক্কা কাটিয়ে ওঠার এবং নতুন করে জীবনে শুরু করার চেষ্টা করছে। এমন শিশুর সংখ্যা ২০ হাজারেরও বেশি। সেই বাচ্চাদের জন্য, এটা জানা খুবই স্বস্তিদায়ক যে Google-এর মতো কোম্পানিগুলো তাদের জীবনের সবচেয়ে খারাপ স্মৃতির সঙ্গে যুক্ত ছবিগুলো সরিয়ে ফেলার জন্য যথাসাধ্য চেষ্টা করছে।

আপনি যদি ইন্টারেনেটে শিশু যৌন নিগ্রহের ছবি বা কন্টেন্ট দেখতে পান তাহলে সেই বিষয়ে ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (NCMEC)-এ, অথবা বিশ্বের অন্য যে কোনো প্রাসঙ্গিক কর্তৃপক্ষের কাছে অভিযোগ করুন।

Google, ইন্টারনেটে শিশুদের যৌন নির্যাতন এবং নিপীড়ন দেখানো কনটেন্ট (CSAM) প্রতিরোধে প্রতিশ্রুতিবদ্ধ। এই ধরনের কনটেন্ট ছড়িয়ে দেওয়ার জন্য যাতে আমাদের পরিষেবাগুলো ব্যবহার না করা হয় তার জন্য আমরা যথাসাধ্য চেষ্টা করি। আরও জানতে, আমাদের বাচ্চাদের সুরক্ষা সংক্রান্ত ওয়েবসাইট দেখুন।

সাইবার সুরক্ষা উন্নত করা

বিশ্বের অন্য কারোর তুলনায় আমরা কীভাবে অনলাইনে অনেক বেশি সংখ্যক মানুষকে নিরাপদ রাখি তা জানুন

আরও জানুন