NCMEC, Google, ఇమేజ్ హ్యాష్ ట్యాగింగ్ టెక్నాలజీ


నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ & ఎక్స్‌ప్లాయిటెడ్ చిల్డ్రన్ (NCMEC) అమెరికాలో ప్రతి సంవత్సరం పిల్లలను లైంగికంగా వేధించే ఆన్‌లైన్ కంటెంట్ (CSAM)కు సంబంధించి కొన్ని కోట్ల రిపోర్ట్‌లను అందుకుంటుంది. NCMEC సీనియర్ వైస్ ప్రెసిడెంట్, చీఫ్ ఆపరేటింగ్ ఆఫీసర్ మిషెల్ డిలూన్, సంస్థ పరిణామం గురించి, CSAM సమస్యను పరిష్కరించడానికి టెక్ కంపెనీలు ఎలా ముందుకు వస్తున్నాయి అనే దాని గురించి, Google Hash Matching API గురించి మాట్లాడారు.

మీరు NCMEC గురించి, అందులో మీ పాత్ర ఏంటి అని మాకు చెప్పగలరా?


నేను NCMECలో 20 సంవత్సరాలకు పైగా పని చేస్తున్నాను. అందువల్ల సంస్థ పరిణామ క్రమాన్ని, మన పిల్లలకు, వారి భద్రతకు ఎదురవుతున్న ప్రమాదాలను, సవాళ్లను ప్రత్యక్షంగా చూశాను. నేను నా కెరీర్‌ను ఇక్కడ CyberTipline విశ్లేషకుడిగా ప్రారంభించాను.

పిల్లలపై దాడికి అవకాశం ఉన్న సందర్భాలను ప్రజలు రిపోర్ట్ చేయడానికి ఒక మార్గంగా, CyberTipline 1998లో సృష్టించి, లాంచ్ చేశారు. ఆ సమయంలో ఒక వ్యక్తి, వారి చిన్నారితో ఆన్‌లైన్‌లో అనుచితంగా మాట్లాడుతున్నారని ఆందోళన చెందిన తల్లిదండ్రులు పంపిన, CSAM వెబ్‌సైట్‌లను గుర్తించిన వ్యక్తులు పంపిన రిపోర్ట్‌లను అందుకుంటూ ఉన్నాము. అప్పుడు యునైటెడ్ స్టేట్స్‌లో ఒక ఫెడరల్ చట్టం ఆమోదించబడింది, ఆ చట్టం ప్రకారం US టెక్ కంపెనీలు, తమ సిస్టమ్‌లలో CSAMకు సంబంధించి ఏవైనా సంఘటనలను గుర్తిస్తే, వాటిని CyberTiplineకు రిపోర్ట్ చేయాలి.

ప్రారంభ రోజుల్లో, ఒక వారంలో పిల్లలపై దాడికి సంబంధించి బహుశా 100 రిపోర్ట్‌లను అందుకునే వాళ్లం అనుకుంటా. 2001లో మేము టెక్ కంపెనీ నుండి మొదటి రిపోర్ట్‌ను అందుకున్నాం. ఇక 2021కి వస్తే, ప్రతిరోజూ మేం సుమారు 70,000 కొత్త రిపోర్ట్‌లను అందుకుంటున్నాం. అందులో కొన్ని ప్రజలు పంపినవి, కానీ మా రిపోర్ట్‌లలో ఎక్కువ భాగం టెక్ కంపెనీలు సబ్మిట్ చేసినవే ఉన్నాయి.

CSAMకు వ్యతిరేకంగా ఆన్‌లైన్ కంపెనీలు పోరాడటంలో NCMEC ఎలా సహాయపడుతుంది?


చట్టం ప్రకారం కంపెనీలు తమంతట తాము ఎటువంటి కృషి చేయాల్సిన అవసరం లేదు. CSAM కంటెంట్‌ను వారు గుర్తిస్తే లేదా వారికి దాని గురించి తెలిస్తే, కేవలం వారు దానిని రిపోర్ట్ చేస్తే చాలు. CyberTiplineలో సంవత్సరాలుగా మేము చూసిన వృద్ధికి ఇది నిజంగా ప్రేరణ. కానీ గత ఐదు సంవత్సరాలలో నివేదించే సంఖ్య బాగా పెరిగింది. ఈ నివేదించే సంఖ్య భారీగా పెరగడానికి, చాలా టెక్నాలజీ కంపెనీలు తమంతట తాముగా చొరవ తీసుకుని CSAMను గుర్తించడం, తొలగించడం, రిపోర్ట్ చేయడం కారణమని చెప్పవచ్చు.

నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ & ఎక్స్‌ప్లాయిటెడ్ చిల్డ్రన్‌లో మేము నిర్వహిస్తున్న ఫ్లాగ్‌షిప్ ప్రోగ్రామ్‌ల్లో ఒకటి హ్యాష్ షేరింగ్ ప్లాట్‌ఫారాలు, పరిశ్రమల కోసం ఒక దానిని, ఎంపిక చేసిన NGOలకు సహకరించడానికి మరొక దానిని నిర్వహిస్తున్నాము. NGO హ్యాష్ షేరింగ్ ప్లాట్‌ఫారం ద్వారా, ఆసక్తి ఉన్న టెక్ కంపెనీలకు, వారి నెట్‌వర్క్‌ల్లో CSAMకు వ్యతిరేకంగా పోరాడటానికి వారు చేసే కృషికి, సహాయం చేయడానికి NCMEC 50 లక్షలకు పైగా ధృవీకరించిన హ్యాష్ విలువలను, ట్రిపుల్-వెట్టెడ్ CSAMను అందిస్తోంది. Googleతో సహా పెద్ద కంపెనీలు చాలా ఈ లిస్ట్‌లో చేరి సహాయాన్ని సద్వినియోగం చేసుకొని, వారి ప్లాట్‌ఫారాల నుండి CSAMను తీసివేయడానికి తమంతట తాము చర్యలు తీసుకుంటున్నాయి. పిల్లలకు సహాయం చేసే ఇతర ప్రముఖ NGOలు తమ హ్యాష్‌లను, NCMEC హ్యాష్ ప్లాట్‌ఫారం ద్వారా టెక్ పరిశ్రమకు అందించే వెసులుబాటును కూడా ఈ లిస్ట్ కల్పిస్తుంది. తద్వారా ఒక్కో టెక్ కంపెనీ స్వయంగా ప్రతి NGO దగ్గరకు వెళ్లాల్సిన అవసరాన్ని తగ్గించడానికి ప్రయత్నిస్తుంది.

పరిశ్రమ హ్యాష్ షేరింగ్ ప్లాట్‌ఫారాన్ని కూడా మేం అందిస్తున్నాం, ఇది ఎంపిక చేసిన కంపెనీలు, తమ CSAM హ్యాష్‌లను ఒక దానితో మరొకటి పంచుకోవడాన్ని ఎనేబుల్ చేస్తుంది. ఏదైనా కంపెనీ తనంతట తానుగా ఈ కంటెంట్‌ను గుర్తించడానికి సిద్ధంగా ఉండి, అందుకు తగిన సామర్థ్యం ఉన్నప్పుడు అందుకు అవసరమైన టూల్స్‌ను సదరు కంపెనీకి అందించడం ద్వారా, కంపెనీలు తమ స్వంత CSAM హ్యాష్‌లను ఒక దానితో మరొకటి షేర్ చేసుకోగలిగేలా తోడ్పాటును అందిస్తున్నాం. Google, ఈ లిస్ట్‌లో సుమారు మొత్తం 74% హ్యాష్‌ల సంఖ్యతో, పెద్ద కంట్రిబ్యూటర్‌గా ఉంది.

దీన్ని బట్టి మేం ఎంత భారీ స్థాయిలో రిపోర్ట్‌లను అందుకుంటున్నాం అన్నది మీరు అర్థం చేసుకోవచ్చు. ఈ రిపోర్ట్‌ల్లో చాలా మంది ఒకే ఫోటోను పలుమార్లు రిపోర్ట్ చేస్తున్నారని మేము గమనించాము. అది పూర్తిగా సహజమే ఎందుకంటే కంపెనీలు హ్యాష్ విలువలను ఉపయోగించి తెలిసిన కంటెంట్‌ను గుర్తిస్తాయి, కానీ తెలిసిన కంటెంట్ పెరిగే కొద్దీ, ఆన్‌లైన్‌లో క్రియేట్ చేయబడే, పంచుకునే కొత్త కంటెంట్‌ను NCMEC గుర్తించడం ఎంతో ముఖ్యం.

CyberTipline రిపోర్ట్‌లను ప్రాధాన్యత క్రమంలో వర్గీకరించుకునేందుకు NCMECకి Google యొక్క Hash Matching API సాయం చేసింది ఈ ప్రాజెక్ట్ ఎలా ప్రారంభమైంది అనే దాని గురించి మాకు మీరు మరింత చెప్పగలరా?


హ్యాష్ షేరింగ్ ప్రోగ్రామ్ విజయవంతం కావడం వలన పూర్తిగా కొత్త సవాలు క్రియేట్ చేయబడింది: చాలా పెద్ద సంఖ్యలో సవాళ్లు క్రియేట్ చేయబడ్డాయి. NCMEC వంటి లాభాపేక్ష రహిత సంస్థకు ఇంత పెద్ద సంఖ్యలో ఉన్న సవాళ్లను కవర్ చేసే డిజిటల్ సామర్థ్యం లేదు. అందుకే Hash Matching API టూల్‌ను బిల్డ్ చేయడంలో సహాయపడుతుందని Google కోసం మేము ఎదురు చూస్తున్నాము, కృతజ్ఞతతో ఉన్నాము.

2020లో మేము 2.1 కోట్ల CyberTipline రిపోర్ట్‌లను అందుకున్నాము, కానీ ఈ రిపోర్ట్‌లు ప్రతి ఒక్క దానిలో పలు ఇమేజ్‌లు, వీడియోలు ఉండవచ్చు. ఆ 2.1 కోట్ల రిపోర్ట్‌లలో వాస్తవానికి సుమారు 7 కోట్ల పిల్లల లైంగిక అశ్లీల సంబంధిత ఇమేజ్‌లు, వీడియోలు ఉండవచ్చు. వాటిలో ఖచ్చితంగా డూప్లికేట్‌లు ఉంటాయి. వంద శాతం మ్యాచ్ అయ్యే వాటిని NCMEC సులభంగా గుర్తించగలదు. కానీ ఇదివరకెన్నడూ చూడని ఇమేజ్‌లను, చూడటానికి ఒకేలా ఉంటూ భారీ సంఖ్యలో మ్యాచ్ అయ్యే ఇమేజ్‌లను రియల్ టైంలో గుర్తించడం, ప్రాధాన్యత ఆధారంగా వాటిని వర్గీకరించడం మాకు అసాధ్యం. వాస్తవానికి లైంగిక వేధింపులకు గురయ్యే పిల్లలను గుర్తించడానికి మేము ట్రై చేస్తున్నప్పుడు, అలా వర్గీకరించడం చాలా ముఖ్యం.

Hash Matching API వలన NCMECకి ఏ ప్రయోజనాలు ఉంటాయి?


మాకు ఒక ముఖ్యమైన పని ఉంది, అది ఏమిటంటే ఈ కీలకమైన సమాచారాన్ని వీలైనంత త్వరగా చట్టాన్ని అమలు చేసే సంస్థకు అందించాలి. ఈ టూల్ ప్రయోజనాల్లో ఒకటి ఏమిటి అంటే CyberTipline రిపోర్ట్‌లకు మరింత సమాచారాన్ని జోడించే కొత్త మార్గాన్ని ఇది మాకు అందిస్తోంది.

పిల్లల లైంగిక అశ్లీలతకు సంబంధించిన ప్రతి ఇమేజ్‌ను, వీడియోను చూసి, వాటిని లేబుల్ చేయాలంటే అది మాకు పెద్ద పరీక్ష. ఉదాహరణకు, ‘ఇది CSAM’, ‘ఇది CSAM కాదు’, లేదా ‘ఈ విధంగా చిన్నారి లేదా వ్యక్తి వయస్సును గుర్తించడం కష్టం.’ కానీ, కేవలం గత సంవత్సరంలోనే 7 కోట్ల ఫైళ్లు వచ్చాయి, వాటన్నింటినీ మేము లేబుల్ చేయలేమని మీకూ తెలుసు. ఈ API మమ్మల్ని పోల్చి చూసేలా చేస్తుంది. మేము ఒక ఫైల్‌ను ట్యాగ్ చేసినప్పుడు, చూడటానికి ఒకే విధంగా ఉన్న ఫైళ్లు అన్నింటిని మేము గుర్తించేలా API చేస్తుంది, ఆపై వాటిని మేము రియల్ టైంలో తగిన విధంగా ట్యాగ్ చేస్తాము. ఫలితంగా, మేము 2.6 కోట్లకు పైగా ఇమేజ్‌లను ట్యాగ్ చేయగలిగాము.

చట్టాన్ని అమలు చేసే సంస్థకు మేము పంపే రిపోర్ట్‌లకు మరింత సమాచారాన్ని జోడించడంలో ఇది మాకు సహాయపడుతుంది, కాబట్టి ఏ రిపోర్ట్‌లను వారు ముందుగా రివ్యూ చేయాలి, ఆ విధంగా ప్రాధాన్యతను ఇస్తారు. ఏ ఇమేజ్‌లను అయితే మునుపెన్నడూ చూడలేదో, వాటిని గుర్తించడంలో కూడా ఇది మాకు సహాయం చేస్తుంది. ఆ ఇమేజ్‌లు తరచుగా, ప్రపంచంలో ఏదో ఒక మూల, లైంగిక దాడికి గురవుతున్న చిన్నారికి సంబంధించినవి అయ్యి ఉంటాయి. మేము గడ్డివాములో గుండుసూది కోసం వెతుకుంటే, ఈ సందర్భంలో, ఆ గుండుసూది, కాపాడాల్సిన చిన్నారి. ఆ ఇమేజ్‌లలో ఏ పిల్లలకు అయితే తక్షణ సహాయం కావాలో, వాటి మీద మా పూర్తి దృష్టి పెట్టేలా Google టూల్ చేసింది.

CyberTipline నుండి రిపోర్ట్‌లను ప్రాసెస్ చేసి, CSAM కంటెంట్‌ను విశ్లేషించే NCMEC మాన్యువల్ రివ్యూవర్‌ల కష్టాన్ని ఇది ఎలా ప్రభావితం చేసింది?


ఈ CSAM గుర్తింపు టూల్, మా సిబ్బంది అదే ఇమేజ్‌లను మళ్లీ మళ్లీ చూడవలసిన అవసరం లేకుండా చేసింది. ఈ ఇమేజ్‌లు, పిల్లలు లైంగిక వేధింపులకు గురైన సందర్భంలోనివి, ఆ పిల్లలు ఇప్పుడు పెద్దవారు అయ్యి ఉండవచ్చు. ఈ ఇమేజ్‌లు నిరంతరం లైవ్‌లో ప్రదర్శించబడి, ఆ వ్యక్తులు నిత్యం బాధకు గురయ్యేలా చేస్తాయి. కాబట్టి ఆ ఇమేజ్‌లను ట్యాగ్ చేసే వీలు కల్పించడం వలన, ఇటీవల లైంగిక వేధింపులకు గురవుతున్న పిల్లలపై దృష్టి సారించే అవకాశం లభిస్తుంది. అదే సమయంలో చట్టవిరుద్ధమైన ఇమేజ్‌లను వీక్షణ నుండి తీసివేయడానికి వీలు కలుగుతుంది.

అందుకే మా సిబ్బంది ఇక్కడ ఉన్నారు; వారు ఆ పిల్లలకు సహాయం చేయాలనుకుంటున్నారు. మా సిబ్బంది సంక్షేమాన్ని చూసుకుంటూనే, అదే హానికరమైన కంటెంట్‌ను మళ్లీ మళ్లీ రివ్యూ చేయవలసిన అవసరం లేకుండా చేయడం ఒక అద్భుతమైన మైలురాయి.

ఆన్‌లైన్‌లో ఈ రకమైన కంటెంట్‌కు వ్యతిరేకంగా చేసే మొత్తం పోరాటంలో, టెక్ కంపెనీలకు ఇది ఎలా సహాయపడుతుంది?


CSAMకు వ్యతిరేకంగా ప్రపంచవ్యాప్తంగా జరిగే పోరాటంలో కంపెనీలకు సపోర్ట్ చేయడానికి Google CSAMను గుర్తించే టెక్నాలజీని అందిస్తోంది, అలాగే Hash Matching API కూడా స్వయంగా NCMECపైనే కాకుండా ఇంకా చాలా సంస్థలపై నేరుగా ప్రభావం చూపుతోంది. నేషనల్ సెంటర్ మరింత క్రమబద్ధీకరించిన, సమర్థవంతమైన ప్రాసెస్ నుండి అన్ని టెక్ కంపెనీలు ప్రయోజనాన్ని పొందుతున్నాయి. CyberTipline రిపోర్ట్‌లను సకాలంలో పరిష్కరిస్తున్నారు, మనకు ఈ టూల్ లేకపోతే రిపోర్ట్‌లకు తగిన అదనపు సమాచారాన్ని జోడించడం కష్టతరం అయ్యేది.

NCMEC టెక్ కంపెనీలకు, చట్టాన్ని అమలు చేసే సంస్థలకు, బాధితులు, వారి కుటుంబాలకు సెంట్రల్ రిసోర్స్. సమస్యలకు, వాటి పరిష్కారాల కోసం మాకు ఒక ప్రత్యేక టూల్ ఉంది. CyberTipline కారణంగా, ఆన్‌లైన్‌లో కొత్తగా క్రియేట్ అయిన, ఇప్పటికే ఉన్న CSAM గురించి మాకు తెలుస్తూ ఉంటుంది. ఈ రిపోర్ట్‌లు అన్నింటిని, చట్టాన్ని అమలు చేసే సంస్థకు అందుబాటులో ఉంచుతారు. దీని ముగింపులో, లైంగిక వేధింపులకు గురైన మరియు దోపిడీకి గురైన నిజమైన పిల్లలు మనకు ఉన్నారనే విషయాన్ని మనం ఎన్నడూ విస్మరించకూడదు. లైంగికంగా దాడికి గురైన 20,000కు పైగా పిల్లలు, వారిపై జరిగిన దాడిని వీడియోలో లేదా ఇమేజ్‌లో భద్రపరిచి ఉన్న సందర్భాలు మాకు తెలుసు. ఈ బాధితులలో కొందరు ఇప్పటికీ పిల్లలే. కొందరు పెద్ద వారు. వారిపై జరుగుతున్న దాడి గురించి వారికి స్పష్టంగా తెలుసు. అందుకే, ఈ ఇమేజ్‌ల వ్యాప్తిని తగ్గించడానికి మేము ఏం చేయగలమో, అది చేయడం ముఖ్యం.

ప్రజలకు స్పష్టంగా తెలియని ఒక విషయం ఏమిటంటే, ఇమేజ్‌లు “పాతవి” లేదా “రిపీట్ అవుతున్నాయి” అని చెప్పి తెలిసిన CSAMను విస్మరించే అవకాశం ఉంది. 20,000 మందికి పైగా పిల్లలు తమపై జరిగిన వేధింపుల నుంచి తేరుకుని, జీవితంలో ముందుకు సాగాలనుకుంటున్నారని మేము ప్రజలకు నిరంతరం చెబుతూనే ఉంటాము. వారి జీవితాలలో జరిగి దారుణమైన సంఘటనలకు సంబంధించిన ఇమేజ్‌లను తీసివేయడానికి Google వంటి కంపెనీలు చేస్తున్న కృషి గురించి తెలుసుకొని వారు ఊరట పొందుతారు.

మీకు ఆన్‌లైన్‌లో పిల్లల లైంగిక అశ్లీల సంబంధిత ఇమేజ్‌లు లేదా కంటెంట్ కనిపిస్తే, మీరు దానిని నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ అండ్ ఎక్స్‌ప్లాయిటెడ్ చిల్డ్రన్ (NCMEC) లింక్‌లో, లేదా సంబంధిత అధికారిక సంస్థకు ప్రపంచవ్యాప్తంగా ఉన్న అధికారిక సంస్థకు రిపోర్ట్ చేయవచ్చు.

ఆన్‌లైన్‌లో పిల్లలపై జరిగే లైంగిక దుర్బాషణ, దాడికి వ్యతిరేకంగా పోరాడటానికి, పిల్లలను లైంగికంగా వేధించే కంటెంట్ (CSAM) వ్యాప్తికి మా సర్వీస్‌లను ఉపయోగించకుండా నివారించడానికి Google కట్టుబడి ఉంది. దీని గురించి మీరు మా పిల్లల్ని రక్షించే వెబ్‌సైట్ లింక్‌లో మరింత తెలుసుకోవచ్చు.

సైబర్ సెక్యూరిటీ పురోగతులు

ప్రపంచంలోని అందరికంటే ఎక్కువ మందిని ఆన్‌లైన్‌లో, మేము సురక్షితంగా ఎలా ఉంచుతామో తెలుసుకోండి.

మరింత తెలుసుకోండి