NCMEC, Google, ఇమేజ్ హ్యాష్ ట్యాగింగ్ టెక్నాలజీ
నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ & ఎక్స్ప్లాయిటెడ్ చిల్డ్రన్ (NCMEC) అమెరికాలో ప్రతి సంవత్సరం పిల్లలను లైంగికంగా వేధించే ఆన్లైన్ కంటెంట్ (CSAM)కు సంబంధించి కొన్ని కోట్ల రిపోర్ట్లను అందుకుంటుంది. NCMEC సీనియర్ వైస్ ప్రెసిడెంట్, చీఫ్ ఆపరేటింగ్ ఆఫీసర్ మిషెల్ డిలూన్, సంస్థ పరిణామం గురించి, CSAM సమస్యను పరిష్కరించడానికి టెక్ కంపెనీలు ఎలా ముందుకు వస్తున్నాయి అనే దాని గురించి, Google Hash Matching API గురించి మాట్లాడారు.
మీరు NCMEC గురించి, అందులో మీ పాత్ర ఏంటి అని మాకు చెప్పగలరా?
నేను NCMECలో 20 సంవత్సరాలకు పైగా పని చేస్తున్నాను. అందువల్ల సంస్థ పరిణామ క్రమాన్ని, మన పిల్లలకు, వారి భద్రతకు ఎదురవుతున్న ప్రమాదాలను, సవాళ్లను ప్రత్యక్షంగా చూశాను. నేను నా కెరీర్ను ఇక్కడ CyberTipline విశ్లేషకుడిగా ప్రారంభించాను.
పిల్లలపై దాడికి అవకాశం ఉన్న సందర్భాలను ప్రజలు రిపోర్ట్ చేయడానికి ఒక మార్గంగా, CyberTipline 1998లో సృష్టించి, లాంచ్ చేశారు. ఆ సమయంలో ఒక వ్యక్తి, వారి చిన్నారితో ఆన్లైన్లో అనుచితంగా మాట్లాడుతున్నారని ఆందోళన చెందిన తల్లిదండ్రులు పంపిన, CSAM వెబ్సైట్లను గుర్తించిన వ్యక్తులు పంపిన రిపోర్ట్లను అందుకుంటూ ఉన్నాము. అప్పుడు యునైటెడ్ స్టేట్స్లో ఒక ఫెడరల్ చట్టం ఆమోదించబడింది, ఆ చట్టం ప్రకారం US టెక్ కంపెనీలు, తమ సిస్టమ్లలో CSAMకు సంబంధించి ఏవైనా సంఘటనలను గుర్తిస్తే, వాటిని CyberTiplineకు రిపోర్ట్ చేయాలి.
ప్రారంభ రోజుల్లో, ఒక వారంలో పిల్లలపై దాడికి సంబంధించి బహుశా 100 రిపోర్ట్లను అందుకునే వాళ్లం అనుకుంటా. 2001లో మేము టెక్ కంపెనీ నుండి మొదటి రిపోర్ట్ను అందుకున్నాం. ఇక 2021కి వస్తే, ప్రతిరోజూ మేం సుమారు 70,000 కొత్త రిపోర్ట్లను అందుకుంటున్నాం. అందులో కొన్ని ప్రజలు పంపినవి, కానీ మా రిపోర్ట్లలో ఎక్కువ భాగం టెక్ కంపెనీలు సబ్మిట్ చేసినవే ఉన్నాయి.
CSAMకు వ్యతిరేకంగా ఆన్లైన్ కంపెనీలు పోరాడటంలో NCMEC ఎలా సహాయపడుతుంది?
చట్టం ప్రకారం కంపెనీలు తమంతట తాము ఎటువంటి కృషి చేయాల్సిన అవసరం లేదు. CSAM కంటెంట్ను వారు గుర్తిస్తే లేదా వారికి దాని గురించి తెలిస్తే, కేవలం వారు దానిని రిపోర్ట్ చేస్తే చాలు. CyberTiplineలో సంవత్సరాలుగా మేము చూసిన వృద్ధికి ఇది నిజంగా ప్రేరణ. కానీ గత ఐదు సంవత్సరాలలో నివేదించే సంఖ్య బాగా పెరిగింది. ఈ నివేదించే సంఖ్య భారీగా పెరగడానికి, చాలా టెక్నాలజీ కంపెనీలు తమంతట తాముగా చొరవ తీసుకుని CSAMను గుర్తించడం, తొలగించడం, రిపోర్ట్ చేయడం కారణమని చెప్పవచ్చు.
నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ & ఎక్స్ప్లాయిటెడ్ చిల్డ్రన్లో మేము నిర్వహిస్తున్న ఫ్లాగ్షిప్ ప్రోగ్రామ్ల్లో ఒకటి హ్యాష్ షేరింగ్ ప్లాట్ఫారాలు, పరిశ్రమల కోసం ఒక దానిని, ఎంపిక చేసిన NGOలకు సహకరించడానికి మరొక దానిని నిర్వహిస్తున్నాము. NGO హ్యాష్ షేరింగ్ ప్లాట్ఫారం ద్వారా, ఆసక్తి ఉన్న టెక్ కంపెనీలకు, వారి నెట్వర్క్ల్లో CSAMకు వ్యతిరేకంగా పోరాడటానికి వారు చేసే కృషికి, సహాయం చేయడానికి NCMEC 50 లక్షలకు పైగా ధృవీకరించిన హ్యాష్ విలువలను, ట్రిపుల్-వెట్టెడ్ CSAMను అందిస్తోంది. Googleతో సహా పెద్ద కంపెనీలు చాలా ఈ లిస్ట్లో చేరి సహాయాన్ని సద్వినియోగం చేసుకొని, వారి ప్లాట్ఫారాల నుండి CSAMను తీసివేయడానికి తమంతట తాము చర్యలు తీసుకుంటున్నాయి. పిల్లలకు సహాయం చేసే ఇతర ప్రముఖ NGOలు తమ హ్యాష్లను, NCMEC హ్యాష్ ప్లాట్ఫారం ద్వారా టెక్ పరిశ్రమకు అందించే వెసులుబాటును కూడా ఈ లిస్ట్ కల్పిస్తుంది. తద్వారా ఒక్కో టెక్ కంపెనీ స్వయంగా ప్రతి NGO దగ్గరకు వెళ్లాల్సిన అవసరాన్ని తగ్గించడానికి ప్రయత్నిస్తుంది.
పరిశ్రమ హ్యాష్ షేరింగ్ ప్లాట్ఫారాన్ని కూడా మేం అందిస్తున్నాం, ఇది ఎంపిక చేసిన కంపెనీలు, తమ CSAM హ్యాష్లను ఒక దానితో మరొకటి పంచుకోవడాన్ని ఎనేబుల్ చేస్తుంది. ఏదైనా కంపెనీ తనంతట తానుగా ఈ కంటెంట్ను గుర్తించడానికి సిద్ధంగా ఉండి, అందుకు తగిన సామర్థ్యం ఉన్నప్పుడు అందుకు అవసరమైన టూల్స్ను సదరు కంపెనీకి అందించడం ద్వారా, కంపెనీలు తమ స్వంత CSAM హ్యాష్లను ఒక దానితో మరొకటి షేర్ చేసుకోగలిగేలా తోడ్పాటును అందిస్తున్నాం. Google, ఈ లిస్ట్లో సుమారు మొత్తం 74% హ్యాష్ల సంఖ్యతో, పెద్ద కంట్రిబ్యూటర్గా ఉంది.
దీన్ని బట్టి మేం ఎంత భారీ స్థాయిలో రిపోర్ట్లను అందుకుంటున్నాం అన్నది మీరు అర్థం చేసుకోవచ్చు. ఈ రిపోర్ట్ల్లో చాలా మంది ఒకే ఫోటోను పలుమార్లు రిపోర్ట్ చేస్తున్నారని మేము గమనించాము. అది పూర్తిగా సహజమే ఎందుకంటే కంపెనీలు హ్యాష్ విలువలను ఉపయోగించి తెలిసిన కంటెంట్ను గుర్తిస్తాయి, కానీ తెలిసిన కంటెంట్ పెరిగే కొద్దీ, ఆన్లైన్లో క్రియేట్ చేయబడే, పంచుకునే కొత్త కంటెంట్ను NCMEC గుర్తించడం ఎంతో ముఖ్యం.
CyberTipline రిపోర్ట్లను ప్రాధాన్యత క్రమంలో వర్గీకరించుకునేందుకు NCMECకి Google యొక్క Hash Matching API సాయం చేసింది ఈ ప్రాజెక్ట్ ఎలా ప్రారంభమైంది అనే దాని గురించి మాకు మీరు మరింత చెప్పగలరా?
హ్యాష్ షేరింగ్ ప్రోగ్రామ్ విజయవంతం కావడం వలన పూర్తిగా కొత్త సవాలు క్రియేట్ చేయబడింది: చాలా పెద్ద సంఖ్యలో సవాళ్లు క్రియేట్ చేయబడ్డాయి. NCMEC వంటి లాభాపేక్ష రహిత సంస్థకు ఇంత పెద్ద సంఖ్యలో ఉన్న సవాళ్లను కవర్ చేసే డిజిటల్ సామర్థ్యం లేదు. అందుకే Hash Matching API టూల్ను బిల్డ్ చేయడంలో సహాయపడుతుందని Google కోసం మేము ఎదురు చూస్తున్నాము, కృతజ్ఞతతో ఉన్నాము.
2020లో మేము 2.1 కోట్ల CyberTipline రిపోర్ట్లను అందుకున్నాము, కానీ ఈ రిపోర్ట్లు ప్రతి ఒక్క దానిలో పలు ఇమేజ్లు, వీడియోలు ఉండవచ్చు. ఆ 2.1 కోట్ల రిపోర్ట్లలో వాస్తవానికి సుమారు 7 కోట్ల పిల్లల లైంగిక అశ్లీల సంబంధిత ఇమేజ్లు, వీడియోలు ఉండవచ్చు. వాటిలో ఖచ్చితంగా డూప్లికేట్లు ఉంటాయి. వంద శాతం మ్యాచ్ అయ్యే వాటిని NCMEC సులభంగా గుర్తించగలదు. కానీ ఇదివరకెన్నడూ చూడని ఇమేజ్లను, చూడటానికి ఒకేలా ఉంటూ భారీ సంఖ్యలో మ్యాచ్ అయ్యే ఇమేజ్లను రియల్ టైంలో గుర్తించడం, ప్రాధాన్యత ఆధారంగా వాటిని వర్గీకరించడం మాకు అసాధ్యం. వాస్తవానికి లైంగిక వేధింపులకు గురయ్యే పిల్లలను గుర్తించడానికి మేము ట్రై చేస్తున్నప్పుడు, అలా వర్గీకరించడం చాలా ముఖ్యం.
Hash Matching API వలన NCMECకి ఏ ప్రయోజనాలు ఉంటాయి?
మాకు ఒక ముఖ్యమైన పని ఉంది, అది ఏమిటంటే ఈ కీలకమైన సమాచారాన్ని వీలైనంత త్వరగా చట్టాన్ని అమలు చేసే సంస్థకు అందించాలి. ఈ టూల్ ప్రయోజనాల్లో ఒకటి ఏమిటి అంటే CyberTipline రిపోర్ట్లకు మరింత సమాచారాన్ని జోడించే కొత్త మార్గాన్ని ఇది మాకు అందిస్తోంది.
పిల్లల లైంగిక అశ్లీలతకు సంబంధించిన ప్రతి ఇమేజ్ను, వీడియోను చూసి, వాటిని లేబుల్ చేయాలంటే అది మాకు పెద్ద పరీక్ష. ఉదాహరణకు, ‘ఇది CSAM’, ‘ఇది CSAM కాదు’, లేదా ‘ఈ విధంగా చిన్నారి లేదా వ్యక్తి వయస్సును గుర్తించడం కష్టం.’ కానీ, కేవలం గత సంవత్సరంలోనే 7 కోట్ల ఫైళ్లు వచ్చాయి, వాటన్నింటినీ మేము లేబుల్ చేయలేమని మీకూ తెలుసు. ఈ API మమ్మల్ని పోల్చి చూసేలా చేస్తుంది. మేము ఒక ఫైల్ను ట్యాగ్ చేసినప్పుడు, చూడటానికి ఒకే విధంగా ఉన్న ఫైళ్లు అన్నింటిని మేము గుర్తించేలా API చేస్తుంది, ఆపై వాటిని మేము రియల్ టైంలో తగిన విధంగా ట్యాగ్ చేస్తాము. ఫలితంగా, మేము 2.6 కోట్లకు పైగా ఇమేజ్లను ట్యాగ్ చేయగలిగాము.
చట్టాన్ని అమలు చేసే సంస్థకు మేము పంపే రిపోర్ట్లకు మరింత సమాచారాన్ని జోడించడంలో ఇది మాకు సహాయపడుతుంది, కాబట్టి ఏ రిపోర్ట్లను వారు ముందుగా రివ్యూ చేయాలి, ఆ విధంగా ప్రాధాన్యతను ఇస్తారు. ఏ ఇమేజ్లను అయితే మునుపెన్నడూ చూడలేదో, వాటిని గుర్తించడంలో కూడా ఇది మాకు సహాయం చేస్తుంది. ఆ ఇమేజ్లు తరచుగా, ప్రపంచంలో ఏదో ఒక మూల, లైంగిక దాడికి గురవుతున్న చిన్నారికి సంబంధించినవి అయ్యి ఉంటాయి. మేము గడ్డివాములో గుండుసూది కోసం వెతుకుంటే, ఈ సందర్భంలో, ఆ గుండుసూది, కాపాడాల్సిన చిన్నారి. ఆ ఇమేజ్లలో ఏ పిల్లలకు అయితే తక్షణ సహాయం కావాలో, వాటి మీద మా పూర్తి దృష్టి పెట్టేలా Google టూల్ చేసింది.
CyberTipline నుండి రిపోర్ట్లను ప్రాసెస్ చేసి, CSAM కంటెంట్ను విశ్లేషించే NCMEC మాన్యువల్ రివ్యూవర్ల కష్టాన్ని ఇది ఎలా ప్రభావితం చేసింది?
ఈ CSAM గుర్తింపు టూల్, మా సిబ్బంది అదే ఇమేజ్లను మళ్లీ మళ్లీ చూడవలసిన అవసరం లేకుండా చేసింది. ఈ ఇమేజ్లు, పిల్లలు లైంగిక వేధింపులకు గురైన సందర్భంలోనివి, ఆ పిల్లలు ఇప్పుడు పెద్దవారు అయ్యి ఉండవచ్చు. ఈ ఇమేజ్లు నిరంతరం లైవ్లో ప్రదర్శించబడి, ఆ వ్యక్తులు నిత్యం బాధకు గురయ్యేలా చేస్తాయి. కాబట్టి ఆ ఇమేజ్లను ట్యాగ్ చేసే వీలు కల్పించడం వలన, ఇటీవల లైంగిక వేధింపులకు గురవుతున్న పిల్లలపై దృష్టి సారించే అవకాశం లభిస్తుంది. అదే సమయంలో చట్టవిరుద్ధమైన ఇమేజ్లను వీక్షణ నుండి తీసివేయడానికి వీలు కలుగుతుంది.
అందుకే మా సిబ్బంది ఇక్కడ ఉన్నారు; వారు ఆ పిల్లలకు సహాయం చేయాలనుకుంటున్నారు. మా సిబ్బంది సంక్షేమాన్ని చూసుకుంటూనే, అదే హానికరమైన కంటెంట్ను మళ్లీ మళ్లీ రివ్యూ చేయవలసిన అవసరం లేకుండా చేయడం ఒక అద్భుతమైన మైలురాయి.
ఆన్లైన్లో ఈ రకమైన కంటెంట్కు వ్యతిరేకంగా చేసే మొత్తం పోరాటంలో, టెక్ కంపెనీలకు ఇది ఎలా సహాయపడుతుంది?
CSAMకు వ్యతిరేకంగా ప్రపంచవ్యాప్తంగా జరిగే పోరాటంలో కంపెనీలకు సపోర్ట్ చేయడానికి Google CSAMను గుర్తించే టెక్నాలజీని అందిస్తోంది, అలాగే Hash Matching API కూడా స్వయంగా NCMECపైనే కాకుండా ఇంకా చాలా సంస్థలపై నేరుగా ప్రభావం చూపుతోంది. నేషనల్ సెంటర్ మరింత క్రమబద్ధీకరించిన, సమర్థవంతమైన ప్రాసెస్ నుండి అన్ని టెక్ కంపెనీలు ప్రయోజనాన్ని పొందుతున్నాయి. CyberTipline రిపోర్ట్లను సకాలంలో పరిష్కరిస్తున్నారు, మనకు ఈ టూల్ లేకపోతే రిపోర్ట్లకు తగిన అదనపు సమాచారాన్ని జోడించడం కష్టతరం అయ్యేది.
NCMEC టెక్ కంపెనీలకు, చట్టాన్ని అమలు చేసే సంస్థలకు, బాధితులు, వారి కుటుంబాలకు సెంట్రల్ రిసోర్స్. సమస్యలకు, వాటి పరిష్కారాల కోసం మాకు ఒక ప్రత్యేక టూల్ ఉంది. CyberTipline కారణంగా, ఆన్లైన్లో కొత్తగా క్రియేట్ అయిన, ఇప్పటికే ఉన్న CSAM గురించి మాకు తెలుస్తూ ఉంటుంది. ఈ రిపోర్ట్లు అన్నింటిని, చట్టాన్ని అమలు చేసే సంస్థకు అందుబాటులో ఉంచుతారు. దీని ముగింపులో, లైంగిక వేధింపులకు గురైన మరియు దోపిడీకి గురైన నిజమైన పిల్లలు మనకు ఉన్నారనే విషయాన్ని మనం ఎన్నడూ విస్మరించకూడదు. లైంగికంగా దాడికి గురైన 20,000కు పైగా పిల్లలు, వారిపై జరిగిన దాడిని వీడియోలో లేదా ఇమేజ్లో భద్రపరిచి ఉన్న సందర్భాలు మాకు తెలుసు. ఈ బాధితులలో కొందరు ఇప్పటికీ పిల్లలే. కొందరు పెద్ద వారు. వారిపై జరుగుతున్న దాడి గురించి వారికి స్పష్టంగా తెలుసు. అందుకే, ఈ ఇమేజ్ల వ్యాప్తిని తగ్గించడానికి మేము ఏం చేయగలమో, అది చేయడం ముఖ్యం.
ప్రజలకు స్పష్టంగా తెలియని ఒక విషయం ఏమిటంటే, ఇమేజ్లు “పాతవి” లేదా “రిపీట్ అవుతున్నాయి” అని చెప్పి తెలిసిన CSAMను విస్మరించే అవకాశం ఉంది. 20,000 మందికి పైగా పిల్లలు తమపై జరిగిన వేధింపుల నుంచి తేరుకుని, జీవితంలో ముందుకు సాగాలనుకుంటున్నారని మేము ప్రజలకు నిరంతరం చెబుతూనే ఉంటాము. వారి జీవితాలలో జరిగి దారుణమైన సంఘటనలకు సంబంధించిన ఇమేజ్లను తీసివేయడానికి Google వంటి కంపెనీలు చేస్తున్న కృషి గురించి తెలుసుకొని వారు ఊరట పొందుతారు.
మీకు ఆన్లైన్లో పిల్లల లైంగిక అశ్లీల సంబంధిత ఇమేజ్లు లేదా కంటెంట్ కనిపిస్తే, మీరు దానిని నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ అండ్ ఎక్స్ప్లాయిటెడ్ చిల్డ్రన్ (NCMEC) లింక్లో, లేదా సంబంధిత అధికారిక సంస్థకు ప్రపంచవ్యాప్తంగా ఉన్న అధికారిక సంస్థకు రిపోర్ట్ చేయవచ్చు.
ఆన్లైన్లో పిల్లలపై జరిగే లైంగిక దుర్బాషణ, దాడికి వ్యతిరేకంగా పోరాడటానికి, పిల్లలను లైంగికంగా వేధించే కంటెంట్ (CSAM) వ్యాప్తికి మా సర్వీస్లను ఉపయోగించకుండా నివారించడానికి Google కట్టుబడి ఉంది. దీని గురించి మీరు మా పిల్లల్ని రక్షించే వెబ్సైట్ లింక్లో మరింత తెలుసుకోవచ్చు.
సైబర్ సెక్యూరిటీ పురోగతులు
ప్రపంచంలోని అందరికంటే ఎక్కువ మందిని ఆన్లైన్లో, మేము సురక్షితంగా ఎలా ఉంచుతామో తెలుసుకోండి.
మరింత తెలుసుకోండి