NCMEC, Google และเทคโนโลยีการแฮชรูปภาพ
ในสหรัฐอเมริกา ศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ (NCMEC) ได้รับรายงานเกี่ยวกับสื่อที่มีการล่วงละเมิดทางเพศเด็ก (CSAM) ทางออนไลน์หลายล้านครั้งในแต่ละปี Michelle DeLaune รองประธานอาวุโสและประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของ NCMEC พูดถึงวิวัฒนาการขององค์กร วิธีที่บริษัทเทคโนโลยีต่างๆ เข้ามาช่วยจัดการกับ CSAM และ Hash Matching API ของ Google
เล่าให้เราฟังเกี่ยวกับ NCMEC และบทบาทของคุณหน่อยได้ไหม
ฉันอยู่ที่ NCMEC มาเกิน 20 ปีแล้ว ก็เลยได้เห็นวิวัฒนาการขององค์กรนี้ รวมถึงความท้าทายและภัยคุกคามที่มีต่อเด็กๆ และความปลอดภัยของพวกเขาด้วยตาตัวเอง ฉันเริ่มทำงานที่นี่ในตำแหน่งนักวิเคราะห์ CyberTipline
CyberTipline สร้างขึ้นและเปิดตัวในปี 1998 ในฐานะช่องทางสำหรับผู้คนในสังคมที่จะรายงานเหตุการณ์ที่มีแนวโน้มจะเป็นการแสวงหาประโยชน์จากเด็ก ตอนนั้นเราได้รับรายงานจากผู้ปกครองที่กังวลว่ามีผู้ใหญ่มาพูดคุยกับบุตรหลานของตัวเองอย่างไม่เหมาะสม และผู้คนที่เจอเว็บไซต์ที่มี CSAM ค่ะ จากนั้นรัฐบาลกลางก็ผ่านกฎหมายที่กำหนดให้บริษัทเทคโนโลยีของสหรัฐอเมริกาต้องรายงานเหตุการณ์ CSAM ที่ชัดเจนในระบบของตัวเองไปยัง CyberTipline
ในช่วงแรกๆ เราได้รับรายงานการแสวงหาประโยชน์จากเด็กเกินสัปดาห์ละ 100 เรื่อง รายงานฉบับแรกของเรามาจากบริษัทเทคโนโลยีในปี 2001 ตัดภาพมาที่ปี 2021 เราได้รับรายงานใหม่ประมาณวันละ 70,000 เรื่อง บางเรื่องก็มาจากสาธารณชน แต่รายงานส่วนใหญ่ของเราส่งมาจากบริษัทเทคโนโลยีต่างๆ ค่ะ
NCMEC ช่วยบริษัทออนไลน์ต่างๆ ต่อสู้กับ CSAM อย่างไร
กฎหมายไม่ได้กำหนดให้บริษัทต่างๆ ต้องมีมาตรการเชิงรุกใดๆ สิ่งที่ต้องทำมีเพียงการรายงานเมื่อตรวจพบเนื้อหา CSAM หรือรับรู้ว่ามีเนื้อหาดังกล่าว และนั่นคือแรงกระตุ้นให้เกิดการพัฒนาสื่อเครื่องมือต่างๆ ที่เราได้เห็นใน CyberTipline ตลอดหลายปีที่ผ่านมา แต่ใน 5 ปีหลังสุด การรายงานก็เพิ่มขึ้นสูงสุดอย่างมีนัยสำคัญ การเพิ่มขึ้นอย่างมหาศาลนี้เป็นผลมาจากความพยายามที่บริษัทเทคโนโลยีจำนวนมากอาสาที่จะใช้มาตรการเชิงรุกในการตรวจจับ นำออก และรายงาน CSAM
หนึ่งในโปรแกรมเรือธงที่เราใช้ดำเนินการในศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ ก็คือแพลตฟอร์มการแชร์แฮช เพื่อให้ทั้งบริษัทต่างๆ และองค์กร NGO บางแห่งได้มีส่วนร่วม NCMEC จะส่งข้อมูลค่าแฮชของ CSAM มากกว่า 5 ล้านรายการที่ได้รับการยืนยันและผ่านการตรวจสอบ 3 ชั้นให้แก่บริษัทเทคโนโลยีที่สนใจ โดยผ่านแพลตฟอร์มการแชร์แฮชของ NGO เพื่อช่วยเหลือบริษัทเหล่านั้นในการรับมือกับ CSAM บนเครือข่ายของตัวเอง บริษัทขนาดใหญ่จำนวนมากรวมถึง Google ได้ใช้ประโยชน์จากข้อมูลนี้ และมีมาตรการเชิงรุกในการนำ CSAM ออกจากแพลตฟอร์มของตัวเอง นอกจากนั้น ข้อมูลนี้ยังทำให้องค์กร NGO ที่มีชื่อเสียงด้านการดูแลเด็กสามารถส่งข้อมูลแฮชของตัวเองให้บริษัทเทคโนโลยีผ่านแพลตฟอร์มแฮชของ NCMEC ทำให้แต่ละบริษัทไม่ต้องติดต่อไปยัง NGO เป็นรายองค์กร
และเรายังเสนอแพลตฟอร์ม Industry Hash Sharing ซึ่งทำให้บริษัทบางแห่งสามารถแชร์แฮช CSAM ที่ตัวเองมีให้กันได้ด้วย เรากำลังทำให้มั่นใจได้ว่า ทุกบริษัทที่เต็มใจและสามารถตรวจจับเนื้อหาเหล่านี้ในเชิงรุกได้จะมีเครื่องมือทั้งหมดที่จำเป็นต่อการดำเนินการ และบริษัทต่างๆ จะสามารถแชร์แฮช CSAM ของตัวเองให้กันได้ Google เป็นผู้มีส่วนร่วมรายใหญ่ที่สุดของแพลตฟอร์มนี้ โดยมีจำนวนแฮชทั้งหมดในรายการนี้มากถึง 74% โดยประมาณ
อย่างที่คุณพอจะจินตนาการได้ถึงปริมาณรายงานที่เราได้รับในตอนนี้ เราได้เห็นรูปภาพเดียวกันจำนวนมากถูกรายงานเข้ามาหลายต่อหลายครั้ง ซึ่งเป็นเรื่องที่เข้าใจได้โดยสมบูรณ์เนื่องจากบริษัทต่างๆ ล้วนใช้ค่าแฮชเพื่อตรวจจับเนื้อหาที่เคยรายงานเข้ามาแล้ว และในเมื่อเนื้อหาเหล่านั้นมีจำนวนเพิ่มขึ้น การที่ NCMEC จะสามารถระบุเนื้อหาใหม่ที่มีการสร้างและแชร์กันในโลกออนไลน์ก็ยิ่งสำคัญมากขึ้น
Hash Matching API ของ Google ได้ช่วยให้ NCMEC จัดลำดับความสำคัญให้รายงานของ CyberTipline ช่วยเล่าให้เราฟังเกี่ยวกับจุดเริ่มต้นของโปรเจ็กต์นี้อีกหน่อยได้ไหม
ความสำเร็จของโปรแกรมการแชร์แฮชได้สร้างความท้าทายใหม่อย่างสิ้นเชิง ซึ่งก็คือปริมาณที่หมายถึงความท้าทายครั้งมโหฬาร องค์กรไม่แสวงผลกำไรอย่าง NCMEC ไม่มีกำลังในการคำนวณที่จะรองรับปริมาณขนาดนี้ได้ นั่นจึงเป็นเหตุผลให้เรากระตือรือร้นอย่างมากและรู้สึกขอบคุณที่ Google เข้ามาช่วยสร้างเครื่องมือ Hash Matching API นี้
ในปี 2020 เราได้รับรายงาน CyberTipline ถึง 21 ล้านครั้ง และในการรายงานแต่ละครั้งก็อาจมีรูปภาพและวิดีโอเป็นจำนวนมาก ซึ่งจริงๆ แล้วการรายงานทั้ง 21 ล้านครั้งนั้นมีรูปภาพและวิดีโอการล่วงละเมิดทางเพศเด็กถึง 70 ล้านรายการ แน่นอนว่าในจำนวนนั้นต้องมีรายการที่ซ้ำกัน และถึงแม้ NCMEC จะตรวจสอบรายการที่ตรงกันได้ไม่ยาก แต่เราย่อมไม่สามารถตรวจหาภาพที่คล้ายกันทีละมากๆ ในแบบเรียลไทม์เพื่อระบุและจัดลำดับความสำคัญของภาพที่ไม่เคยเห็นมาก่อนได้ และนั่นคือกุญแจสำคัญสำหรับการพยายามระบุตัวเด็กที่กำลังถูกล่วงละเมิดทางเพศอยู่
Hash Matching API นำประโยชน์อะไรมาสู่ NCMEC บ้าง
เรามีหน้าที่ที่สำคัญอย่างยิ่ง ซึ่งก็คือการนำข้อมูลที่สำคัญนี้ส่งต่อไปยังฝ่ายบังคับใช้กฎหมายโดยเร็วที่สุด หนึ่งในข้อดีของเครื่องมือนี้ก็คือ เรามีวิธีใหม่ในการเพิ่มค่าแฮชให้รายงาน CyberTipline ได้อย่างมหาศาล
เรามีโปรแกรมของการทำงานที่จะต้องดูภาพและวิดีโอการล่วงละเมิดทางเพศเด็กทั้งหมดแล้วติดป้ายกำกับให้ เช่น "นี่คือ CSAM" "นี่ไม่ใช่ CSAM" หรือ "ภาพนี้ระบุอายุเด็กหรือบุคคลนี้ได้ยาก" แต่อย่างที่คุณจะนึกภาพออก เฉพาะปีที่แล้วก็มีไฟล์ 70 ล้านรายการแล้ว เราไม่มีทางติดป้ายกำกับให้ได้ทั้งหมด API นี้ทำให้เราเปรียบเทียบไฟล์ต่างๆ ได้ เมื่อเราแท็ก 1 ไฟล์ API นี้จะทำให้เราสามารถระบุไฟล์ที่หน้าตาคล้ายกันทั้งหมดซึ่งเราก็จะแท็กตามความเหมาะสมในแบบเรียลไทม์ ผลที่ได้ก็คือ เราสามารถแท็กรูปได้มากกว่า 26 ล้านรูปแล้ว
ซึ่งช่วยให้เราเพิ่มค่าแฮชในรายงานที่ส่งให้หน่วยงานบังคับใช้กฎหมายได้มากขึ้น หน่วยงานเหล่านั้นจึงจัดลำดับความสำคัญได้ว่าจะต้องตรวจสอบรายงานไหนก่อน และยังช่วยให้เราระบุได้ว่าไม่เคยเห็นภาพไหนมาก่อนบ้าง รูปภาพเหล่านั้นมักมีเด็กที่กำลังถูกล่วงละเมิดทางเพศอยู่ตรงไหนสักแห่งในโลกใบนี้ ถ้าเรากำลังงมเข็มในมหาสมุทรอย่างในคำพังเพย กรณีนี้เข็มเล่มนั้นก็คือเด็กคนหนึ่งที่กำลังต้องการความช่วยเหลืออยู่ เครื่องมือของ Google ทำให้เราสามารถพุ่งเป้าไปยังรูปภาพของเด็กที่ต้องการความช่วยเหลือในทันทีได้
แล้วสิ่งนี้ส่งผลกระทบต่อคุณภาพชีวิตของเจ้าหน้าที่ตรวจสอบของ NCMEC ที่ต้องประมวลผลรายงานจาก CyberTipline และวิเคราะห์เนื้อหา CSAM อย่างไรบ้าง
เครื่องมือตรวจจับ CSAM นี้ทำให้เจ้าหน้าที่ของเราไม่จำเป็นต้องมานั่งดูรูปภาพเดียวกันซ้ำไปซ้ำมาอีกครั้ง มีรูปภาพของเด็กๆ ที่ถูกล่วงละเมิดทางเพศซึ่งตอนนี้อาจโตเป็นผู้ใหญ่ไปแล้วก็ได้ รูปภาพเหล่านี้จะอยู่ในโลกออนไลน์ตลอดไปและมีส่วนทำให้บุคคลเหล่านั้นต้องตกเป็นเหยื่ออย่างต่อเนื่อง ดังนั้นการสามารถแท็กรูปภาพเหล่านั้นได้จะทำให้พวกเขาให้ความสำคัญกับภาพของเด็กที่ถูกล่วงละเมิดทางเพศในช่วงไม่นานมานี้ได้ พร้อมกันนั้นก็นำรูปภาพที่ผิดกฎหมายออกไม่ให้เห็น
นั่นคือเหตุผลที่พนักงานของเราอยู่ที่นี่ ทุกคนอยากช่วยเหลือเด็กๆ พวกนั้น การปรับปรุงใหม่ล่าสุดนี้ช่วยให้เจ้าหน้าที่ไม่ต้องเสียสุขภาพจากการทำงานหนัก และไม่ต้องตรวจเจอเนื้อหาที่เป็นอันตรายเดิมๆ ที่เคยรายงานเข้ามาแล้วซ้ำไปซ้ำมาอีก
งานนี้ช่วยให้บริษัทเทคโนโลยีทั้งหมดต่อสู้กับเนื้อหาประเภทนี้ทางออนไลน์ได้อย่างไร
เรารู้ว่า Google จัดหาเทคโนโลยีการตรวจจับ CSAM ให้แก่บริษัทต่างๆ เพื่อช่วยสนับสนุนการต่อสู้กับ CSAM ของทั้งโลก และตัว Hash Matching API เองก็มีผลโดยตรงกับหลายๆ องค์กรนอกเหนือไปจาก NCMEC บริษัทเทคโนโลยีทั้งหมดล้วนได้รับประโยชน์จากกระบวนการที่ดีและมีประสิทธิภาพมากขึ้นที่ศูนย์ของเรา รายงาน CyberTipline ได้รับการแก้ไขและจัดการตามลำดับเวลาได้ดีขึ้น และสามารถเพิ่มค่าแฮชได้มากขึ้นกว่าการไม่มีเครื่องมือนี้
NCMEC เป็นแหล่งข้อมูลส่วนกลางสำหรับบริษัทเทคโนโลยี หน่วยงานด้านการบังคับใช้กฎหมาย ผู้รอดชีวิต ตลอดจนครอบครัวของพวกเขา เรามองปัญหาและทางออกผ่านมุมมองที่มีความเฉพาะตัวอย่างไม่น่าเชื่อ CyberTipline ทำให้เรารับรู้ข้อมูลได้มากขึ้นถึง CSAM ที่ถูกสร้างขึ้นใหม่และที่มีอยู่แล้วซึ่งหมุนเวียนอยู่ในโลกออนไลน์ โดยฝ่ายบังคับใช้กฎหมายสามารถเข้าถึงรายงานเหล่านี้ได้ทั้งหมด เราไม่ควรหลงลืมว่าท้ายที่สุดแล้ว เรามีเด็กที่มีตัวตนจริงๆ ตกเป็นเหยื่อการล่วงละเมิดทางเพศและถูกฉกฉวยผลประโยชน์
เท่าที่เรารู้ มีเด็กกว่า 20,000 คนที่ระบุตัวตนได้ถูกล่วงละเมิดทางเพศ และการล่วงละเมิดของพวกเขาถูกบันทึกไว้ไม่ว่าจะเป็นวิดีโอหรือรูปภาพ ผู้รอดชีวิตเหล่านี้ ซึ่งแน่นอนว่าบางคนยังเป็นเด็กและบางคนก็เป็นผู้ใหญ่แล้วในปัจจุบัน ล้วนตระหนักถึงการตกเป็นเหยื่ออย่างต่อเนื่องที่พวกตนกำลังเผชิญอยู่ นั่นคือเหตุผลที่สำคัญอย่างยิ่งสำหรับพวกเราในการทำสิ่งที่ทำได้เพื่อจำกัดและลดการหมุนเวียนของรูปภาพเหล่านี้ให้มากที่สุด
สิ่งหนึ่งที่อาจไม่ชัดเจนต่อสาธารณะก็คือ CSAM ที่เคยเผยแพร่อยู่แล้วจะไม่ได้รับความสนใจ เพราะรูปภาพเหล่านี้อาจถือว่า "เก่า" หรือ "วนซ้ำ" เราจึงยังคอยกระตุ้นเตือนผู้คนอย่างต่อเนื่องว่าเด็กเหล่านี้มีตัวตนจริงๆ มีเด็กกว่า 20,000 คนที่กำลังพยายามเยียวยาบาดแผลและกลับมาใช้ชีวิตให้ได้ตามปกติอีกครั้ง ทุกข์ของพวกเขาบรรเทาลงเมื่อได้รู้ว่าบริษัทต่างๆ อย่าง Google พยายามทุกวิถีทางที่จะนำรูปภาพอันแสดงถึงช่วงชีวิตที่เลวร้ายที่สุดของพวกเขาออกไป
ถ้าคุณพบภาพการล่วงละเมิดทางเพศเด็ก ก็สามารถรายงานไปยัง (National Center for Missing and Exploited Children - NCMEC) หรือ หน่วยงานที่เหมาะสมทั่วโลก
Google มุ่งมั่นที่จะต่อสู้กับการล่วงละเมิดทางเพศและการแสวงหาประโยชน์จากเด็กทางออนไลน์ และป้องกันไม่ให้มีการนำบริการของเราไปใช้เผยแพร่สื่อที่มีการล่วงละเมิดทางเพศเด็ก (CSAM) ดูข้อมูลเพิ่มเติมเกี่ยวกับเรื่องนี้ได้ที่เว็บไซต์ Protecting Children