NCMEC, Google ಮತ್ತು ಇಮೇಜ್ ಹ್ಯಾಶಿಂಗ್ ತಂತ್ರಜ್ಞಾನ
ಯುನೈಟೆಡ್ ಸ್ಟೇಟ್ಸ್ನಲ್ಲಿ, ಕಾಣೆಯಾದ ಮತ್ತು ಶೋಷಣೆಗೊಳಗಾದ ಮಕ್ಕಳ ರಾಷ್ಟ್ರೀಯ ಕೇಂದ್ರವು (NCMEC) ಪ್ರತಿ ವರ್ಷ ಆನ್ಲೈನ್ನಲ್ಲಿ ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಕಂಟೆಂಟ್ (CSAM) ಕುರಿತಾದ ಲಕ್ಷಾಂತರ ವರದಿಗಳನ್ನು ಪಡೆಯುತ್ತದೆ. NCMEC ಯ ಹಿರಿಯ ಉಪಾಧ್ಯಕ್ಷರು ಮತ್ತು ಮುಖ್ಯ ಕಾರ್ಯನಿರ್ವಹಣಾ ಅಧಿಕಾರಿ, ಮಿಚೆಲ್ ಡೆಲೌನ್, ಸಂಸ್ಥೆಯ ವಿಕಾಸದ ಬಗ್ಗೆ, CSAM ಅನ್ನು ನಿಭಾಯಿಸಲು ಟೆಕ್ ಕಂಪನಿಗಳು ಹೇಗೆ ಮುಂದೆ ಬರುತ್ತಿವೆ ಎಂದು ಮತ್ತು Google ನ Hash Matching API ನ ಕುರಿತು ಮಾತನಾಡಿದ್ದಾರೆ.
NCMEC ಬಗ್ಗೆ ಮತ್ತು ನಿಮ್ಮ ಪಾತ್ರ ಏನು ಎಂಬುದನ್ನು ನೀವು ನಮಗೆ ಹೇಳಬಲ್ಲಿರಾ?
ನಾನು 20 ವರ್ಷಗಳಿಗಿಂತ ಹೆಚ್ಚು ಕಾಲ NCMEC ಯಲ್ಲಿದ್ದೇನೆ, ಹಾಗಾಗಿ ಸಂಸ್ಥೆಯ ವಿಕಾಸ ಮತ್ತು ನಮ್ಮ ಮಕ್ಕಳು ಹಾಗೂ ಅವರ ಸುರಕ್ಷತೆಯ ಕುರಿತ ಸವಾಲುಗಳು ಮತ್ತು ಬೆದರಿಕೆಗಳನ್ನು ನಾನು ನೇರವಾಗಿ ನೋಡಿದ್ದೇನೆ. ನಾನು ಇಲ್ಲಿ CyberTipline ವಿಶ್ಲೇಷಕಿಯಾಗಿ ನನ್ನ ವೃತ್ತಿಜೀವನವನ್ನು ಪ್ರಾರಂಭಿಸಿದೆ.
1998 ರಲ್ಲಿ CyberTipline ಅನ್ನು ಮಕ್ಕಳ ಶೋಷಣೆಯ ಸಂಭಾವ್ಯ ಘಟನೆಗಳನ್ನು ವರದಿ ಮಾಡಲು ಸಾರ್ವಜನಿಕರಿಗೆ ಒಂದು ಮಾರ್ಗವಾಗಿ ರಚಿಸಲಾಯಿತು ಮತ್ತು ಪ್ರಾರಂಭಿಸಲಾಯಿತು. ಆ ಸಮಯದಲ್ಲಿ ಯಾರೋ ಒಬ್ಬ ವಯಸ್ಕ ವ್ಯಕ್ತಿ ತಮ್ಮ ಮಗುವಿನೊಂದಿಗೆ ಆನ್ಲೈನ್ನಲ್ಲಿ ಅನುಚಿತವಾಗಿ ಮಾತನಾಡುತ್ತಿದ್ದಾರೆ ಎಂದು ಆತಂಕ ಹೊಂದಿದ್ದ ಪೋಷಕರಿಂದ ಮತ್ತು CSAM ಅನ್ನು ಒಳಗೊಂಡಿರುವ ವೆಬ್ಸೈಟ್ಗಳನ್ನು ಕಂಡಿರುವ ಜನರಿಂದ ನಾವು ವರದಿಗಳನ್ನು ಸ್ವೀಕರಿಸುತ್ತಿದ್ದೆವು. ನಂತರ ಯುನೈಟೆಡ್ ಸ್ಟೇಟ್ಸ್ನಲ್ಲಿ ಫೆಡರಲ್ ಕಾನೂನನ್ನು ಅಂಗೀಕರಿಸಲಾಯಿತು, ಅದರ ಪ್ರಕಾರ US ಟೆಕ್ ಕಂಪನಿಗಳು ತಮ್ಮ ಸಿಸ್ಟಂಗಳಲ್ಲಿ ಗೋಚರಿಸುವ ಯಾವುದೇ CSAM ನ ಘಟನೆಗಳನ್ನು CyberTipline ಗೆ ವರದಿ ಮಾಡಬೇಕಾಗಿತ್ತು.
ಮೊದಲಿಗೆ, ನಾವು ಒಂದು ವಾರದಲ್ಲಿ ಮಕ್ಕಳ ಶೋಷಣೆಯ 100 ಕ್ಕೂ ಹೆಚ್ಚಿನ ವರದಿಗಳನ್ನು ಪಡೆಯುತ್ತಿದ್ದೆವು. ನಾವು 2001 ರಲ್ಲಿ ಟೆಕ್ ಕಂಪನಿಯೊಂದರಿಂದ ನಮ್ಮ ಮೊದಲ ವರದಿಯನ್ನು ಸ್ವೀಕರಿಸಿದ್ದೆವು. ಮುಂದುವರಿದು 2021 ಕ್ಕೆ ಬಂದರೆ, ನಾವು ಪ್ರತಿದಿನ ಸುಮಾರು 70,000 ಹೊಸ ವರದಿಗಳನ್ನು ಸ್ವೀಕರಿಸುತ್ತಿದ್ದೇವೆ. ಇವುಗಳಲ್ಲಿ ಕೆಲವು ಸಾರ್ವಜನಿಕರಿಂದ ಬಂದಿವೆ, ಆದರೆ ನಮ್ಮ ವರದಿಗಳಲ್ಲಿ ಬಹುತೇಕ ವರದಿಗಳನ್ನು ಟೆಕ್ ಕಂಪನಿಗಳು ಸಲ್ಲಿಸುತ್ತಿವೆ.
CSAM ವಿರುದ್ಧ ಹೋರಾಡಲು ಆನ್ಲೈನ್ ಕಂಪನಿಗಳಿಗೆ NCMEC ಹೇಗೆ ಸಹಾಯ ಮಾಡುತ್ತದೆ?
ಕಂಪನಿಗಳು ಯಾವುದೇ ಪೂರ್ವಭಾವಿ ಪ್ರಯತ್ನಗಳನ್ನು ಮಾಡುವುದು ಕಾನೂನಿನ ಪ್ರಕಾರ ಕಡ್ಡಾಯವಲ್ಲ. ಒಂದು ವೇಳೆ ಅವರು CSAM ಕಂಟೆಂಟ್ ಅನ್ನು ಪತ್ತೆಹಚ್ಚಿದರೆ ಅಥವಾ ಅವರು ಅದರ ಬಗ್ಗೆ ತಿಳಿದಿದ್ದರೆ, ಅವರು ಅದನ್ನು ವರದಿ ಮಾಡಬೇಕು. CyberTipline ನಲ್ಲಿ ನಾವು ವರ್ಷಗಳಿಂದ ನೋಡಿದ ಸಹಾಯಕಾರಿ ಬೆಳವಣಿಗೆಗೆ ಇದು ನಿಜವಾಗಿಯೂ ಪ್ರಚೋದನೆಯಾಗಿದೆ. ಆದರೆ ಕಳೆದ ಐದು ವರ್ಷಗಳಲ್ಲಿ ವರದಿಗಳಲ್ಲಿ ಅತ್ಯಂತ ಮಹತ್ವದ ಏರಿಕೆ ಕಂಡುಬಂದಿದೆ. ಆ ಏರಿಕೆಗೆ CSAM ಅನ್ನು ಪೂರ್ವಭಾವಿಯಾಗಿ ಪತ್ತೆಹಚ್ಚಲು, ತೆಗೆದುಹಾಕಲು ಮತ್ತು ವರದಿ ಮಾಡಲು ಅನೇಕ ಟೆಕ್ ಕಂಪನಿಗಳು ಸ್ವಯಂಪ್ರೇರಣೆಯಿಂದ ತೆಗೆದುಕೊಳ್ಳುತ್ತಿರುವ ಪ್ರಯತ್ನಗಳು ಕಾರಣವೆಂದು ಹೇಳಬಹುದು.
ಕಾಣೆಯಾದ ಮತ್ತು ಶೋಷಿತ ಮಕ್ಕಳ ರಾಷ್ಟ್ರೀಯ ಕೇಂದ್ರದಲ್ಲಿ ನಾವು ಕಾರ್ಯನಿರ್ವಹಿಸುವ ಪ್ರಮುಖ ಕಾರ್ಯಕ್ರಮಗಳಲ್ಲಿ ಒಂದಾದ ಹ್ಯಾಶ್ ಶೇರಿಂಗ್ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ಗಳು, ಕೊಡುಗೆ ನೀಡುವ ಉದ್ಯಮಕ್ಕೆ ಮತ್ತು ಇನ್ನೊಂದು ಕೊಡುಗೆ ನೀಡಲು ಆಯ್ಕೆಮಾಡಿದ NGO ಗಳು ಎರಡಕ್ಕೂ ಸಂಬಂಧಿಸಿದೆ. NGO ಹ್ಯಾಶ್ ಶೇರಿಂಗ್ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ನ ಮೂಲಕ, ಆಸಕ್ತಿಯಿರುವ ಟೆಕ್ ಕಂಪನಿಗಳು ತಮ್ಮ ನೆಟ್ವರ್ಕ್ಗಳಲ್ಲಿ CSAM ಅನ್ನು ಎದುರಿಸುವುದಕ್ಕೆ ಅವರ ಪ್ರಯತ್ನಗಳಿಗೆ ಸಹಾಯ ಮಾಡಲು ದೃಢೀಕೃತ, ಮೂರು ಬಾರಿ ಪರಿಶೀಲಿಸಿದ CSAM ನ ಐದು ಮಿಲಿಯನ್ಗಿಂತಲೂ ಹೆಚ್ಚು ಹ್ಯಾಶ್ ಮೌಲ್ಯಗಳನ್ನು NCMEC ಅವರಿಗೆ ಒದಗಿಸುತ್ತದೆ. Google ಸೇರಿದಂತೆ ಅನೇಕ ದೊಡ್ಡ ಕಂಪನಿಗಳು ಈ ಪಟ್ಟಿಯನ್ನು ಪಡೆದುಕೊಂಡಿವೆ ಮತ್ತು ತಮ್ಮ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ಗಳಿಂದ CSAM ಅನ್ನು ತೆಗೆದುಹಾಕಲು ಪೂರ್ವಭಾವಿ ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತಿವೆ. ಈ ಪಟ್ಟಿಯು NCMEC ಯ ಹ್ಯಾಶ್ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ ಮೂಲಕ ಟೆಕ್ ಉದ್ಯಮಕ್ಕೆ ತಮ್ಮ ಹ್ಯಾಶ್ಗಳನ್ನು ಒದಗಿಸಲು ಮಕ್ಕಳಿಗೆ ಸೇವೆ ಸಲ್ಲಿಸುವ ಇತರ ಪ್ರತಿಷ್ಠಿತ NGO ಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸುತ್ತದೆ, ಪ್ರತಿ NGO ಗೆ ಪ್ರತ್ಯೇಕವಾಗಿ ಹೋಗಬೇಕಾದ ಟೆಕ್ ಕಂಪನಿಯ ಅವಶ್ಯಕತೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಪ್ರಯತ್ನಿಸುತ್ತದೆ.
ನಾವು ಇಂಡಸ್ಟ್ರಿ ಹ್ಯಾಶ್ ಶೇರಿಂಗ್ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ ಅನ್ನು ಸಹ ನೀಡುತ್ತೇವೆ, ಇದು ಆಯ್ದ ಕಂಪನಿಗಳು ತಮ್ಮದೇ ಆದ CSAM ಹ್ಯಾಶ್ಗಳನ್ನು ಪರಸ್ಪರ ಹಂಚಿಕೊಳ್ಳಲು ಅನುವು ಮಾಡಿಕೊಡುತ್ತದೆ. ಈ ಕಂಟೆಂಟ್ ಅನ್ನು ಸಕ್ರಿಯವಾಗಿ ಪತ್ತೆಹಚ್ಚಲು ಸಿದ್ಧವಿರುವ ಮತ್ತು ಸಮರ್ಥವಾಗಿರುವ ಯಾವುದೇ ಕಂಪನಿಯು ಹಾಗೆ ಮಾಡಲು ಅಗತ್ಯವಿರುವ ಎಲ್ಲಾ ಪರಿಕರ ಹೊಂದಿರುವುದನ್ನು ನಾವು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುತ್ತಿದ್ದೇವೆ ಮತ್ತು ಕಂಪನಿಗಳು ತಮ್ಮ ಸ್ವಂತ CSAM ಹ್ಯಾಶ್ಗಳನ್ನು ಪರಸ್ಪರ ಹಂಚಿಕೊಳ್ಳಬಹುದು . ಪಟ್ಟಿಯಲ್ಲಿರುವ ಒಟ್ಟು ಹ್ಯಾಶ್ಗಳಲ್ಲಿ ಸರಿಸುಮಾರು 74% ಹೊಂದಿರುವ Google, ಈ ಪ್ಲ್ಯಾಟ್ಫಾರ್ಮ್ಗೆ ಅತಿದೊಡ್ಡ ಕೊಡುಗೆ ನೀಡಿದೆ.
ನಾವು ಈಗ ಪಡೆಯುವ ವರದಿಗಳ ಪ್ರಮಾಣದ ಕುರಿತು ನೀವು ಊಹಿಸುವಂತೆ, ಒಂದೇ ರೀತಿಯ ಚಿತ್ರಗಳನ್ನು ಹಲವಾರು ಬಾರಿ ವರದಿ ಮಾಡುವುದನ್ನು ನಾವು ನೋಡುತ್ತಿದ್ದೇವೆ. ಈಗಾಗಲೇ ಗೊತ್ತಿರುವ ಕಂಟೆಂಟ್ಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಕಂಪನಿಗಳು ಹ್ಯಾಶ್ ಮೌಲ್ಯಗಳನ್ನು ಬಳಸುತ್ತಿರುವುದರಿಂದ ಇದು ಏಕೆ ಆಗುತ್ತಿದೆಯೆಂದು ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳಬಹುದು, ಆದರೆ ಈಗಾಗಲೇ ಗೊತ್ತಿರುವ ಕಂಟೆಂಟ್ ಹೆಚ್ಚಾದಂತೆ, ಆನ್ಲೈನ್ನಲ್ಲಿ ರಚಿಸಲಾದ ಮತ್ತು ಹಂಚಿಕೊಂಡಿರುವ ಹೊಸ ಕಂಟೆಂಟ್ಗಳನ್ನು ಗುರುತಿಸುವುದು NCMEC ಗೆ ಹೆಚ್ಚು ಮುಖ್ಯವಾಗಿದೆ.
Google ನ Hash Matching API, CyberTipline ವರದಿಗಳಿಗೆ ಆದ್ಯತೆ ನೀಡಲು NCMEC ಗೆ ಸಹಾಯ ಮಾಡಿದೆ. ಈ ಪ್ರಾಜೆಕ್ಟ್ ಹೇಗೆ ಪ್ರಾರಂಭವಾಯಿತು ಎಂಬುದರ ಕುರಿತು ನೀವು ನಮಗೆ ಇನ್ನಷ್ಟು ಹೇಳಬಲ್ಲಿರಾ?
ಹ್ಯಾಶ್ ಶೇರಿಂಗ್ ಪ್ರೋಗ್ರಾಂನ ಯಶಸ್ಸು ಸಂಪೂರ್ಣವಾಗಿ ಹೊಸ ಸವಾಲನ್ನೇ ಸೃಷ್ಟಿಸಿದೆ: ಇದರ ಪ್ರಮಾಣವೇ ದೊಡ್ಡ ಸವಾಲಾಗಿ ಪರಿಣಮಿಸಿದೆ. NCMEC ಯಂತಹ ಲಾಭರಹಿತ ಸಂಸ್ಥೆಯು ಈ ಪ್ರಮಾಣವನ್ನು ಅಳೆಯಲು ಲೆಕ್ಕ ಹಾಕುವ ಶಕ್ತಿಯನ್ನು ಹೊಂದಿಲ್ಲ. ಅದಕ್ಕಾಗಿಯೇ Hash Matching API ಪರಿಕರವನ್ನು ನಿರ್ಮಿಸುವುದಕ್ಕೆ Google ನ ಸಹಾಯಕ್ಕಾಗಿ ನಾವು ತುಂಬಾ ಉತ್ಸುಕರಾಗಿದ್ದೇವೆ ಮತ್ತು ಕೃತಜ್ಞರಾಗಿರುತ್ತೇವೆ.
2020 ರಲ್ಲಿ ನಾವು 21 ಮಿಲಿಯನ್ CyberTipline ವರದಿಗಳನ್ನು ಸ್ವೀಕರಿಸಿದ್ದೇವೆ, ಆದರೆ ಆ ಪ್ರತಿಯೊಂದು ವರದಿಗಳಲ್ಲಿ ನೀವು ಬಹು ಚಿತ್ರಗಳು ಮತ್ತು ವೀಡಿಯೊಗಳನ್ನು ಹೊಂದಿರಬಹುದು. ಆ 21 ಮಿಲಿಯನ್ ವರದಿಗಳು ವಾಸ್ತವವಾಗಿ ಸುಮಾರು 70 ಮಿಲಿಯನ್ ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಚಿತ್ರಗಳು ಮತ್ತು ವೀಡಿಯೊಗಳನ್ನು ಒಳಗೊಂಡಿವೆ. ಆ ಪ್ರಮಾಣದಲ್ಲಿ ಖಂಡಿತ ನಕಲು ಇದೆ ಮತ್ತು NCMEC ಗೆ ನಿಖರವಾದ ಹೊಂದಾಣಿಕೆಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಸುಲಭವಾಗಿದ್ದರೂ, ಹಿಂದೆಂದೂ ನೋಡಿರದ ಚಿತ್ರಗಳನ್ನು ಗುರುತಿಸಲು ಮತ್ತು ಆದ್ಯತೆ ನೀಡಲು ಒಂದೇ ರೀತಿಯಾಗಿ ಕಾಣುವ ಹೊಂದಾಣಿಕೆಗಳನ್ನು ಪತ್ತೆಹಚ್ಚುವುದಕ್ಕೆ ಆ ಪ್ರಮಾಣದಲ್ಲಿ ಹಾಗೂ ನೈಜ ಸಮಯದಲ್ಲಿ ನಿಮ್ಮಿಂದ ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. ಮತ್ತು ಸಕ್ರಿಯವಾಗಿ ಲೈಂಗಿಕ ಕಿರುಕುಳಕ್ಕೊಳಗಾದ ಮಕ್ಕಳನ್ನು ಗುರುತಿಸಲು ನಾವು ಪ್ರಯತ್ನಿಸುತ್ತಿರುವಾಗ ಅದು ಮುಖ್ಯವಾಗಿದೆ.
NCMEC ಗೆ Hash Matching API ಯಾವ ಪ್ರಯೋಜನಗಳನ್ನು ಕೊಟ್ಟಿದೆ?
ನಮ್ಮ ಕೆಲಸ ನಿಜವಾಗಿಯೂ ಮುಖ್ಯವಾಗಿದೆ, ಅದು ಏನೆಂದರೆ ಈ ಸೂಕ್ಷ್ಮ ಮಾಹಿತಿಯನ್ನು ತೆಗೆದುಕೊಂಡು ಸಾಧ್ಯವಾದಷ್ಟು ಬೇಗ ಅದನ್ನು ಕಾನೂನು ಜಾರಿಗೊಳಿಸುವವರಿಗೆ ತಿಳಿಸುವುದು. ಈ ಉಪಕರಣದ ಒಂದು ಪ್ರಯೋಜನವೆಂದರೆ ಅದು ನಮಗೆ CyberTipline ವರದಿಗಳಿಗೆ ಅಧಿಕ ಮೌಲ್ಯವನ್ನು ಸೇರಿಸುವ ಹೊಸ ಮಾರ್ಗವನ್ನು ನೀಡುತ್ತದೆ.
ನಾವು ಕೆಲಸದ ಪ್ರೋಗ್ರಾಂ ಅನ್ನು ಹೊಂದಿದ್ದೇವೆ, ಅದರಲ್ಲಿ ನಾವು ಪ್ರತಿ ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಚಿತ್ರ ಮತ್ತು ವೀಡಿಯೊವನ್ನು ನೋಡುತ್ತೇವೆ ಮತ್ತು ಅದಕ್ಕೆ ಲೇಬಲ್ ನೀಡುತ್ತೇವೆ. ಉದಾಹರಣೆಗೆ, 'ಇದು CSAM', 'ಇದು CSAM ಅಲ್ಲ', ಅಥವಾ 'ಮಗುವಿನ ಅಥವಾ ವ್ಯಕ್ತಿಯ ವಯಸ್ಸನ್ನು ಗುರುತಿಸುವುದು ಕಷ್ಟವಾಗಿದೆ'. ಆದರೆ, ನೀವು ಊಹಿಸುವಂತೆ, ಕಳೆದ ಒಂದೇ ವರ್ಷದಲ್ಲಿ 70 ಮಿಲಿಯನ್ ಫೈಲ್ಗಳು ಬಂದಿವೆ, ಅವುಗಳೆಲ್ಲವನ್ನೂ ಲೇಬಲ್ ಮಾಡುವುದಕ್ಕೆ ನಮಗೆ ಎಂದಿಗೂ ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. ಈ API ನಮಗೆ ಹೋಲಿಕೆ ಮಾಡಲು ಅನುಮತಿಸುತ್ತದೆ. ನಾವು ಒಂದು ಫೈಲ್ ಅನ್ನು ಟ್ಯಾಗ್ ಮಾಡಿದಾಗ, API ನಮಗೆ ಕಾಣುವುದಕ್ಕೆ ಒಂದೇ ರೀತಿಯ ಹೋಲಿಕೆ ಇರುವ ಎಲ್ಲಾ ಫೈಲ್ಗಳನ್ನು ಗುರುತಿಸಲು ಅನುಮತಿಸುತ್ತದೆ, ನಂತರ ನಾವು ನೈಜ ಸಮಯದಲ್ಲಿ ಟ್ಯಾಗ್ ಮಾಡುತ್ತೇವೆ. ಇದರ ಪರಿಣಾಮವಾಗಿ, 26 ಮಿಲಿಯನ್ಗಿಂತಲೂ ಹೆಚ್ಚು ಚಿತ್ರಗಳನ್ನು ಟ್ಯಾಗ್ ಮಾಡಲು ನಮಗೆ ಸಾಧ್ಯವಾಯಿತು.
ಕಾನೂನು ಜಾರಿಗೊಳಿಸುವವರಿಗೆ ನಾವು ಕಳುಹಿಸುತ್ತಿರುವ ವರದಿಗಳಿಗೆ ಹೆಚ್ಚಿನ ಮೌಲ್ಯವನ್ನು ಸೇರಿಸಲು ಇದು ನಮಗೆ ಸಹಾಯ ಮಾಡುತ್ತದೆ, ಇದರಿಂದಾಗಿ ಅವರು ಮೊದಲು ಯಾವ ವರದಿಗಳನ್ನು ಪರಿಶೀಲಿಸಲು ಬಯಸುತ್ತಾರೆ ಎಂಬುದಕ್ಕೆ ಅವರು ಆದ್ಯತೆ ನೀಡಬಹುದು. ಇದುವರೆಗೆ ಯಾವ ಚಿತ್ರಗಳನ್ನು ನೋಡಿಲ್ಲ ಎಂಬುದನ್ನು ಗುರುತಿಸಲು ಇದು ನಮಗೆ ಸಹಾಯ ಮಾಡುತ್ತದೆ. ಆ ಚಿತ್ರಗಳು ಸಾಮಾನ್ಯವಾಗಿ ಜಗತ್ತಿನಲ್ಲಿ ಎಲ್ಲೋ ಇರುವ ಒಂದು ಮಗುವನ್ನು ಲೈಂಗಿಕವಾಗಿ ದುರುಪಯೋಗಪಡಿಸಿಕೊಳ್ಳುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತವೆ. ಹುಲ್ಲಿನ ಬಣವೆಯಲ್ಲಿ ಸೂಜಿ ಎಂಬ ಗಾದೆ ಮಾತಿನ ಪ್ರಕಾರ, ಈ ಸಂದರ್ಭದಲ್ಲಿ ಸೂಜಿ ಎಂದರೆ ರಕ್ಷಿಸಬೇಕಾದ ಮಗು. ತಕ್ಷಣದ ಸಹಾಯದ ಅಗತ್ಯವಿರುವ ಮಕ್ಕಳನ್ನು ಒಳಗೊಂಡಿರುವ ಆ ಚಿತ್ರಗಳನ್ನು ನಿಖರವಾಗಿ ಗುರುತಿಸಲು Google ನ ಉಪಕರಣವು ನಮಗೆ ಅವಕಾಶ ಮಾಡಿಕೊಟ್ಟಿದೆ.
ಮತ್ತು ಇದು CyberTipline ನಿಂದ ವರದಿಗಳನ್ನು ಪ್ರಕ್ರಿಯೆಗೊಳಿಸುವ ಮತ್ತು CSAM ಕಂಟೆಂಟ್ ಅನ್ನು ವಿಶ್ಲೇಷಿಸುವ NCMEC ಮಾನವ ವಿಮರ್ಶಕರ ಯೋಗಕ್ಷೇಮದ ಮೇಲೆ ಹೇಗೆ ಪರಿಣಾಮ ಬೀರಿದೆ?
ಈ CSAM ಪತ್ತೆಹಚ್ಚುವ ಪರಿಕರವು ನಮ್ಮ ಸಿಬ್ಬಂದಿಗೆ ಒಂದೇ ಚಿತ್ರಗಳನ್ನು ಮತ್ತೆ ಮತ್ತೆ ನೋಡುವ ಅವಶ್ಯಕತೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಿದೆ. ಮಕ್ಕಳನ್ನು ಲೈಂಗಿಕವಾಗಿ ಕಿರುಕುಳಕ್ಕೊಳಪಡಿಸುತ್ತಿರುವ ಚಿತ್ರಗಳಿವೆ, ಅದರಲ್ಲಿನ ಮಕ್ಕಳು ಈಗ ತಮ್ಮ ವಯಸ್ಕ ವರ್ಷಗಳಲ್ಲಿ ಇರಬಹುದು. ಈ ಚಿತ್ರಗಳು ಆನ್ಲೈನ್ನಲ್ಲಿ ಶಾಶ್ವತವಾಗಿ ಉಳಿಯುತ್ತವೆ ಮತ್ತು ಈ ವ್ಯಕ್ತಿಗಳ ಮೇಲಿನ ಮುಂದುವರೆಯುತ್ತಿರುವ ದೌರ್ಜನ್ಯಕ್ಕೆ ದಾರಿ ಮಾಡಿಕೊಡುತ್ತವೆ ಆದ್ದರಿಂದ ಆ ಚಿತ್ರಗಳನ್ನು ಟ್ಯಾಗ್ ಮಾಡಲು ಸಾಧ್ಯವಾಗುವುದರಿಂದ ಇತ್ತೀಚಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯವನ್ನು ಚಿತ್ರಿಸುವ ಮಕ್ಕಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸಲು ಅವರಿಗೆ ಅವಕಾಶ ನೀಡುತ್ತದೆ ಮತ್ತು ಅದೇ ಸಮಯದಲ್ಲಿ ಅಕ್ರಮ ಚಿತ್ರಗಳನ್ನು ವೀಕ್ಷಣೆಯಿಂದ ತೆಗೆದುಹಾಕುತ್ತದೆ.
ಅದಕ್ಕಾಗಿಯೇ ನಮ್ಮ ಸಿಬ್ಬಂದಿ ಇಲ್ಲಿದ್ದಾರೆ; ಅವರು ಆ ಮಕ್ಕಳಿಗೆ ಸಹಾಯ ಮಾಡಲು ಬಯಸುತ್ತಾರೆ. ಕ್ಷೇಮವನ್ನು ಅಭ್ಯಾಸ ಮಾಡುವ ನಮ್ಮ ಸಿಬ್ಬಂದಿಯ ಸಾಮರ್ಥ್ಯದಲ್ಲಿ ಇದು ಅದ್ಭುತ ಸುಧಾರಣೆಯಾಗಿದೆ ಮತ್ತು ಅವರು ಈಗಾಗಲೇ ಗೊತ್ತಿರುವ ಒಂದೇ ರೀತಿಯ ಹಾನಿಕಾರಕ ಕಂಟೆಂಟ್ಗಳನ್ನು ಮತ್ತೆ ಮತ್ತೆ ಎದುರಿಸುವುದಿಲ್ಲ.
ಆನ್ಲೈನ್ನಲ್ಲಿ ಈ ರೀತಿಯ ಕಂಟೆಂಟ್ ವಿರುದ್ಧ ಹೋರಾಡಲು ಟೆಕ್ ಕಂಪನಿಗಳಿಗೆ ಒಟ್ಟಾರೆಯಾಗಿ ಈ ಕೆಲಸವು ಹೇಗೆ ಸಹಾಯ ಮಾಡುತ್ತದೆ?
CSAM ವಿರುದ್ಧದ ಜಾಗತಿಕ ಹೋರಾಟವನ್ನು ಬೆಂಬಲಿಸುವುದಕ್ಕೆ ಸಹಾಯ ಮಾಡಲು ಕಂಪನಿಗಳಿಗೆ CSAM ಪತ್ತೆಹಚ್ಚುವ ತಂತ್ರಜ್ಞಾನವನ್ನು Google ಒದಗಿಸುತ್ತದೆ ಮತ್ತು Hash Matching API ಸ್ವತಃ NCMEC ಅನ್ನು ಮೀರಿ ಅನೇಕರ ಮೇಲೆ ನೇರ ಪರಿಣಾಮ ಬೀರುತ್ತದೆ ಎಂದು ನಮಗೆ ತಿಳಿದಿದೆ. ಎಲ್ಲಾ ಟೆಕ್ ಕಂಪನಿಗಳು ರಾಷ್ಟ್ರೀಯ ಕೇಂದ್ರದಲ್ಲಿ ಹೆಚ್ಚು ಸುವ್ಯವಸ್ಥಿತ, ಪರಿಣಾಮಕಾರಿ ಪ್ರಕ್ರಿಯೆಯ ಪ್ರಯೋಜನವನ್ನು ಆನಂದಿಸುತ್ತಿವೆ. ನಾವು ಈ ಟೂಲ್ ಅನ್ನು ಹೊಂದಿಲ್ಲದ ಸನ್ನಿವೇಶಕ್ಕೆ ಹೋಲಿಸಿದರೆ ಈಗ ಹೆಚ್ಚು ಮೌಲ್ಯ ಸೇರ್ಪಡೆಯೊಂದಿಗೆ ಹಾಗೂ ಸಮಯೋಚಿತವಾಗಿ CyberTipline ವರದಿಗಳನ್ನು ಬಗೆಹರಿಸಲಾಗುತ್ತಿದೆ ಮತ್ತು ನಿಭಾಯಿಸಲಾಗುತ್ತಿದೆ.
ಟೆಕ್ ಕಂಪನಿಗಳಿಗೆ, ಕಾನೂನು ಜಾರಿಗೊಳಿಸುವವರಿಗೆ, ದೌರ್ಜನ್ಯಕ್ಕೊಳಗಾದವರಿಗೆ ಮತ್ತು ಅವರ ಕುಟುಂಬಗಳಿಗೆ NCMEC ಕೇಂದ್ರ ಸಂಪನ್ಮೂಲವಾಗಿದೆ. ನಾವು ವಿಶಿಷ್ಟವಾದ ದೃಷ್ಟಿಕೋನವನ್ನು ಹೊಂದಿದ್ದು ಅದರ ಮೂಲಕ ನಾವು ಸಮಸ್ಯೆಗಳು ಮತ್ತು ಪರಿಹಾರಗಳನ್ನು ನೋಡುತ್ತೇವೆ. CyberTipline ನಿಂದಾಗಿ, ಆನ್ಲೈನ್ನಲ್ಲಿ ಹರಡುತ್ತಿರುವ ಹೊಸದಾಗಿ ರಚಿಸಲಾದ ಮತ್ತು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ CSAM ಬಗ್ಗೆ ನಮಗೆ ಬಹಳ ತಿಳಿದಿದೆ. ಈ ಎಲ್ಲಾ ವರದಿಗಳನ್ನು ಕಾನೂನು ಜಾರಿಗೊಳಿಸುವವರಿಗೆ ಲಭ್ಯವಾಗುವಂತೆ ಮಾಡಲಾಗಿದೆ. ನಾವು ಎಂದಿಗೂ ನಿರ್ಲಕ್ಷ್ಯ ತೋರಿಸಬಾರದು, ಏಕೆಂದರೆ ನಾವು ಲೈಂಗಿಕವಾಗಿ ದೌರ್ಜನ್ಯಕ್ಕೊಳಗಾದ ಮತ್ತು ಶೋಷಣೆಗೆ ಒಳಗಾದ ನಿಜವಾದ ಮಕ್ಕಳ ಸಲುವಾಗಿ ಕೆಲಸ ಮಾಡುತ್ತಿದ್ದೇವೆ.
20,000 ಕ್ಕೂ ಹೆಚ್ಚು ಗುರುತಿಸಲ್ಪಟ್ಟ ಮಕ್ಕಳನ್ನು ಲೈಂಗಿಕವಾಗಿ ದುರುಪಯೋಗಪಡಿಸಿಕೊಳ್ಳಲಾಗಿದೆ ಮತ್ತು ಅವರ ದುರುಪಯೋಗವನ್ನು ವೀಡಿಯೊ ಅಥವಾ ಚಿತ್ರದ ರೂಪದಲ್ಲಿ ಸೆರೆಹಿಡಿಯಲಾಗಿದೆ ಎಂದು ನಮಗೆ ತಿಳಿದಿದೆ. ಈ ದೌರ್ಜನ್ಯಕ್ಕೊಳಗಾದವರಲ್ಲಿ ಕೆಲವರು ಇನ್ನೂ ಮಕ್ಕಳಾಗಿದ್ದಾರೆ ಮತ್ತು ಕೆಲವರು ಇದೀಗ ವಯಸ್ಕರಾಗಿದ್ದಾರೆ, ಹಾಗೂ ಅವರಿಗೆ ತಾವು ಎದುರಿಸುತ್ತಿರುವ ಈಗಲೂ ನಡೆಯುತ್ತಿರುವ ದೌರ್ಜನ್ಯದ ಬಗ್ಗೆ ತೀವ್ರವಾದ ಎಚ್ಚರಿಕೆಯಿರುತ್ತದೆ. ಅದಕ್ಕಾಗಿಯೇ ಈ ಚಿತ್ರಗಳ ಪ್ರಸರಣವನ್ನು ಕನಿಷ್ಠಗೊಳಿಸಲು ಮತ್ತು ಕಡಿಮೆ ಮಾಡಲು ನಮ್ಮಿಂದ ಸಾಧ್ಯವಾಗುವುದನ್ನು ಮಾಡುವುದು ನಮಗೆ ತುಂಬಾ ಮುಖ್ಯವಾಗಿದೆ.
ಸಾರ್ವಜನಿಕರಿಗೆ ಸ್ಪಷ್ಟವಾಗಿಲ್ಲದಿರುವ ಒಂದು ವಿಷಯವೆಂದರೆ, ಈಗಾಗಲೇ ಗೊತ್ತಿರುವ CSAM ಅನ್ನು ವಜಾಗೊಳಿಸುವ ಪ್ರವೃತ್ತಿಯು ಇರಬಹುದು, ಏಕೆಂದರೆ ಚಿತ್ರಗಳನ್ನು "ಹಳೆಯದು" ಅಥವಾ "ಮರುಪ್ರಸರಣವಾದದ್ದು" ಎಂದು ಪರಿಗಣಿಸಿರಬಹುದು. 20,000 ಕ್ಕಿಂತಲೂ ಹೆಚ್ಚು ಮಕ್ಕಳು ತಮ್ಮ ಜೀವನದ ಮೇಲೆ ಹಿಡಿತ ಸಾಧಿಸಲು ಮತ್ತು ಪುನಃ ಜೀವನ ನಡೆಸಲು ಪ್ರಯತ್ನಿಸುತ್ತಿದ್ದಾರೆ, ಇವರು ನಿಜವಾದ ಮಕ್ಕಳು ಎಂಬುದನ್ನು ಜನರಿಗೆ ನೆನಪಿಸಲು ನಾವು ನಿರಂತರವಾಗಿ ಪ್ರಯತ್ನಿಸುತ್ತೇವೆ. ತಮ್ಮ ಜೀವನದ ಕೆಟ್ಟ ಕ್ಷಣಗಳನ್ನು ಬಿಂಬಿಸುವ ಚಿತ್ರಗಳನ್ನು ತೆಗೆದುಹಾಕಲು Google ನಂತಹ ಕಂಪನಿಗಳು ಎಲ್ಲಾ ಪ್ರಯತ್ನಗಳನ್ನು ಮಾಡುತ್ತಿವೆ ಎಂದು ತಿಳಿದು ಅವರಿಗೆ ಬಹಳ ಸಮಾಧಾನವಾಗುತ್ತದೆ.
ನಿಮಗೆ ಆನ್ಲೈನ್ನಲ್ಲಿ ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಚಿತ್ರಗಳು ಅಥವಾ ಕಂಟೆಂಟ್ಗಳು ಕಂಡುಬಂದರೆ, ನೀವು ಅವುಗಳನ್ನು ಕಾಣೆಯಾದ ಮತ್ತು ಶೋಷಿತ ಮಕ್ಕಳ ರಾಷ್ಟ್ರೀಯ ಕೇಂದ್ರಕ್ಕೆ (NCMEC) ಅಥವಾ ಜಗತ್ತಿನಾದ್ಯಂತ ಸೂಕ್ತ ಪ್ರಾಧಿಕಾರಕ್ಕೆ ವರದಿ ಮಾಡಬಹುದು.
ಆನ್ಲೈನ್ನಲ್ಲಿ ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯ ಮತ್ತು ಶೋಷಣೆಯ ವಿರುದ್ಧ ಹೋರಾಡಲು ಮತ್ತು ಮಕ್ಕಳ ಮೇಲಿನ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಕಂಟೆಂಟ್ ಅನ್ನು (CSAM) ಹರಡಲು ನಮ್ಮ ಸೇವೆಗಳನ್ನು ಬಳಸದಂತೆ ತಡೆಯಲು Google ಬದ್ಧವಾಗಿದೆ. ನೀವು ಇದರ ಕುರಿತು ನಮ್ಮ ಮಕ್ಕಳನ್ನು ರಕ್ಷಿಸುವ ವೆಬ್ಸೈಟ್ನಲ್ಲಿ ಇನ್ನಷ್ಟು ತಿಳಿದುಕೊಳ್ಳಬಹುದು.
ಸೈಬರ್ಸೆಕ್ಯೂರಿಟಿ ಸುಧಾರಣೆಗಳು
ಜಗತ್ತಿನಲ್ಲಿರುವ ಇತರರಿಗಿಂತ ನಾವು ಹೆಚ್ಚು ಜನರನ್ನು ಆನ್ಲೈನ್ನಲ್ಲಿ ಹೇಗೆ ಸುರಕ್ಷಿತವಾಗಿರಿಸುತ್ತೇವೆ ಎಂದು ತಿಳಿಯಿರಿ.
ಇನ್ನಷ್ಟು ತಿಳಿಯಿರಿ