NCMEC, Google และเทคโนโลยีการแฮชรูปภาพ
ในสหรัฐอเมริกา ศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ (NCMEC) ได้รับรายงานเกี่ยวกับสื่อที่มีการล่วงละเมิดทางเพศเด็ก (CSAM) ทางออนไลน์หลายล้านครั้งในแต่ละปี Michelle DeLaune รองประธานอาวุโสและประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของ NCMEC พูดถึงวิวัฒนาการขององค์กรว่าบริษัทเทคโนโลยีต่างๆ ได้เข้ามาช่วยจัดการกับ CSAM และ Hash Matching API ของ Google อย่างไร
ช่วยเล่าให้เราฟังเกี่ยวกับ NCMEC และบทบาทของคุณหน่อยได้ไหม
ฉันทำงานที่ NCMEC มามากกว่า 20 ปีแล้ว ก็เลยได้เห็นวิวัฒนาการขององค์กรนี้ รวมถึงความท้าทายและภัยคุกคามที่มีต่อเด็กๆ และความปลอดภัยของพวกเขาด้วยตาตัวเอง ฉันเริ่มทำงานที่นี่ในตำแหน่งนักวิเคราะห์ CyberTipline ค่ะ
CyberTipline สร้างขึ้นและเปิดตัวในปี 1998 เพื่อเป็นช่องทางให้ผู้คนในสังคมได้รายงานเหตุการณ์ที่มีแนวโน้มว่าจะเป็นการแสวงหาประโยชน์จากเด็ก ตอนนั้นเราได้รับรายงานจากผู้ปกครองที่กังวลว่ามีผู้ใหญ่มาพูดคุยกับบุตรหลานของตัวเองอย่างไม่เหมาะสมทางออนไลน์ รวมไปถึงผู้คนที่พบเว็บไซต์ที่มี CSAM ค่ะ จากนั้นรัฐบาลกลางก็ผ่านกฎหมายที่กำหนดให้บริษัทเทคโนโลยีของสหรัฐอเมริกาต้องรายงานเหตุการณ์ CSAM ที่ชัดเจนในระบบของตัวเองไปยัง CyberTipline
ในช่วงแรกๆ เราได้รับรายงานการแสวงหาประโยชน์จากเด็กเกินสัปดาห์ละ 100 เรื่อง รายงานฉบับแรกของเรามาจากบริษัทเทคโนโลยีในปี 2001 ตัดภาพมาที่ปี 2021 เราได้รับรายงานใหม่ประมาณวันละ 70,000 เรื่อง บางเรื่องก็มาจากบุคคลทั่วไป แต่รายงานส่วนใหญ่ของเราก็ยังได้รับมาจากบริษัทเทคโนโลยีต่างๆ ค่ะ
NCMEC ช่วยบริษัทออนไลน์ต่างๆ ต่อสู้กับ CSAM อย่างไร
กฎหมายไม่ได้กำหนดให้บริษัทต่างๆ ต้องมีมาตรการเชิงรุกใดๆ สิ่งที่ต้องทำมีเพียงการรายงานเมื่อตรวจพบเนื้อหา CSAM หรือรับรู้ว่ามีเนื้อหาดังกล่าว และนั่นคือแรงกระตุ้นให้เกิดการพัฒนาเครื่องมือต่างๆ ที่เราได้เห็นใน CyberTipline ตลอดหลายปีที่ผ่านมา แต่ในช่วง 5 ปีมานี้เราได้รับรายงานมากขึ้นสูงสุดเป็นประวัติการณ์ ซึ่งอาจเป็นผลมาจากการที่บริษัทเทคโนโลยีจำนวนมากมีความกระตือรือร้นในการใช้มาตรการเชิงรุกเพื่อตรวจจับ นำออก และรายงาน CSAM
หนึ่งในโปรแกรมสำคัญที่เราดำเนินการในศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ ก็คือแพลตฟอร์มการแชร์แฮช เพื่อให้ทั้งบริษัทต่างๆ และองค์กร NGO บางแห่งได้มีส่วนร่วม NCMEC จะส่งข้อมูลค่าแฮชของ CSAM มากกว่า 5 ล้านรายการที่ได้รับการยืนยันและผ่านการตรวจสอบ 3 ชั้นให้แก่บริษัทเทคโนโลยีที่สนใจ โดยผ่านแพลตฟอร์มการแชร์แฮชของ NGO เพื่อช่วยเหลือบริษัทเหล่านั้นในการรับมือกับ CSAM บนเครือข่ายของตัวเอง บริษัทขนาดใหญ่จำนวนมากรวมถึง Google ได้ใช้ประโยชน์จากข้อมูลนี้ และมีมาตรการเชิงรุกในการนำ CSAM ออกจากแพลตฟอร์มของตัวเอง นอกจากนั้น ข้อมูลนี้ยังทำให้องค์กร NGO ที่มีชื่อเสียงด้านการดูแลเด็กสามารถส่งข้อมูลแฮชของตัวเองให้บริษัทเทคโนโลยีผ่านแพลตฟอร์มแฮชของ NCMEC ทำให้แต่ละบริษัทไม่ต้องติดต่อไปยัง NGO เป็นรายองค์กร
และเรายังเสนอแพลตฟอร์ม Industry Hash Sharing ซึ่งทำให้บริษัทบางแห่งสามารถแชร์แฮช CSAM ที่ตัวเองมีให้กันได้ด้วย เราอยากมั่นใจว่าทุกบริษัทที่ยินดีและมีความสามารถในการตรวจจับเนื้อหาเหล่านี้ในเชิงรุกได้นั้นจะมีเครื่องมือที่จำเป็นทั้งหมดเพื่อใช้ดำเนินการ และบริษัทต่างๆ จะสามารถแชร์แฮช CSAM ของตัวเองให้กันได้ Google เป็นผู้มีส่วนร่วมรายใหญ่ที่สุดของแพลตฟอร์มนี้ โดยมีจำนวนแฮชทั้งหมดในรายการมากถึง 74% โดยประมาณ
อย่างที่คุณพอจะจินตนาการได้จากปริมาณรายงานที่เราได้รับในตอนนี้ เราได้เห็นรูปภาพเดียวกันจำนวนมากถูกรายงานเข้ามาหลายต่อหลายครั้ง ซึ่งเป็นเรื่องที่เข้าใจได้เพราะบริษัทต่างๆ ล้วนใช้ค่าแฮชเพื่อตรวจจับเนื้อหาที่เคยรายงานเข้ามาแล้ว และเมื่อเนื้อหาที่มีการรายงานเข้ามาแล้วมีจำนวนมากขึ้น NCMEC จึงยิ่งต้องระบุเนื้อหาใหม่ที่มีการสร้างและแชร์กันในโลกออนไลน์ให้ได้
Hash Matching API ของ Google ได้ช่วยให้ NCMEC จัดลำดับความสำคัญให้รายงานของ CyberTipline ช่วยเล่าให้เราฟังเกี่ยวกับจุดเริ่มต้นของโปรเจ็กต์นี้อีกหน่อยได้ไหม
ความสำเร็จของโปรแกรมการแชร์แฮชได้สร้างความท้าทายใหม่ให้กับเรา นั่นก็คือปริมาณ ซึ่งเป็นความท้าทายระดับมโหฬาร องค์กรการกุศลอย่าง NCMEC ไม่มีกำลังที่จะรองรับการคำนวณในปริมาณขนาดนี้ได้ จึงเป็นสาเหตุที่เรากระตือรือร้นและรู้สึกขอบคุณ Google อย่างมากที่เข้ามาช่วยสร้างเครื่องมือ Hash Matching API นี้
ในปี 2020 เราได้รับรายงาน CyberTipline ถึง 21 ล้านครั้ง และในแต่ละรายงานก็จะมีอีกหลายรูปภาพและหลายวิดีโอ ซึ่งจริงๆ แล้วการรายงานทั้ง 21 ล้านครั้งนั้นมีรูปภาพและวิดีโอการล่วงละเมิดทางเพศเด็กถึงเกือบ 70 ล้านรายการ แน่นอนว่าในจำนวนนั้นต้องมีรายการที่ซ้ำกัน และถึงแม้ NCMEC จะตรวจสอบรายการที่ตรงกันได้ไม่ยาก แต่เราย่อมไม่สามารถตรวจหาภาพที่คล้ายกันทีละมากๆ ในแบบเรียลไทม์เพื่อระบุและจัดลำดับความสำคัญของภาพที่ไม่เคยเห็นมาก่อนได้ และนั่นคือกุญแจสำคัญสำหรับการพยายามระบุตัวเด็กที่กำลังถูกล่วงละเมิดทางเพศอยู่
Hash Matching API มีประโยชน์ต่อ NCMEC อย่างไรบ้าง
เรามีหน้าที่ที่สำคัญอย่างยิ่ง ซึ่งก็คือการนำข้อมูลที่สำคัญนี้ส่งต่อไปยังฝ่ายบังคับใช้กฎหมายโดยเร็วที่สุด หนึ่งในข้อดีของเครื่องมือนี้ก็คือ เรามีวิธีใหม่ในการเพิ่มค่าแฮชให้กับรายงาน CyberTipline ได้อย่างมหาศาล
การทำงานของเราคือตรวจสอบภาพและวิดีโอการล่วงละเมิดทางเพศเด็กทั้งหมดแล้วติดป้ายกำกับให้ เช่น "นี่คือ CSAM", "นี่ไม่ใช่ CSAM" หรือ "ภาพนี้ระบุอายุเด็กหรือบุคคลได้ยาก" แต่คุณคงพอจะนึกภาพออก เฉพาะปีที่แล้วก็มี 70 ล้านไฟล์แล้ว เราไม่มีทางติดป้ายกำกับให้ได้ทั้งหมด API นี้ทำให้เราเปรียบเทียบไฟล์ต่างๆ ได้ เมื่อเราแท็ก 1 ไฟล์ API นี้จะทำให้เราสามารถระบุไฟล์ที่หน้าตาคล้ายกันทั้งหมดซึ่งเราก็จะแท็กตามความเหมาะสมแบบเรียลไทม์ ผลที่ได้ก็คือ เราสามารถแท็กรูปได้มากกว่า 26 ล้านรูปแล้ว
กระบวนการนี้ช่วยให้เราเพิ่มค่าแฮชในรายงานที่ส่งให้กับฝ่ายบังคับใช้กฎหมายได้มากขึ้น หน่วยงานเหล่านั้นจึงสามารถจัดลำดับความสำคัญได้ว่าจะต้องตรวจสอบรายงานใดก่อน และยังช่วยให้เราระบุได้ว่าไม่เคยเห็นภาพไหนมาก่อนบ้าง รูปภาพเหล่านั้นมักจะเป็นรูปเด็กที่กำลังถูกล่วงละเมิดทางเพศอยู่ที่ไหนสักแห่งบนโลก ถ้าเรากำลังงมเข็มในมหาสมุทรอย่างในคำพังเพย กรณีนี้เข็มเล่มนั้นก็คือเด็กคนหนึ่งที่กำลังต้องการความช่วยเหลืออยู่ เครื่องมือของ Google ทำให้เราสามารถพุ่งเป้าไปยังรูปภาพของเด็กที่ต้องการความช่วยเหลือเร่งด่วน
เครื่องมือนี้ส่งผลกระทบต่อเจ้าหน้าที่ตรวจสอบของ NCMEC ที่ต้องประมวลผลรายงานจาก CyberTipline และวิเคราะห์เนื้อหา CSAM อย่างไรบ้าง
เครื่องมือตรวจจับ CSAM นี้ทำให้เจ้าหน้าที่ของเราไม่จำเป็นต้องมานั่งดูรูปภาพเดียวกันซ้ำไปซ้ำมา มีรูปภาพของเด็กๆ ที่ถูกล่วงละเมิดทางเพศซึ่งตอนนี้อาจโตเป็นผู้ใหญ่ไปแล้ว รูปภาพเหล่านี้จะอยู่ในโลกออนไลน์ตลอดไปและมีส่วนทำให้บุคคลเหล่านั้นต้องตกเป็นเหยื่ออย่างต่อเนื่อง ดังนั้นการที่สามารถแท็กรูปภาพเหล่านี้ได้ช่วยให้เจ้าหน้าที่โฟกัสไปที่ภาพของเด็กที่ถูกล่วงละเมิดทางเพศในช่วงไม่นานมานี้ได้ พร้อมกันนั้นก็นำรูปภาพที่ผิดกฎหมายออกจากระบบ
เจ้าหน้าที่ของเราต่างก็อยากช่วยเหลือเด็กๆ เหล่านั้น การปรับปรุงใหม่ล่าสุดนี้ช่วยให้เจ้าหน้าที่ไม่ต้องเสียสุขภาพจากการทำงานหนัก และไม่ต้องตรวจเนื้อหาเดิมที่เคยรายงานเข้ามาแล้วซ้ำไปซ้ำมาอีก
วิธีการนี้ช่วยให้บริษัทเทคโนโลยีทั้งหมดต่อสู้กับเนื้อหาประเภทนี้ทางออนไลน์ได้อย่างไร
เรารู้ว่า Google ช่วยจัดหาเทคโนโลยีการตรวจจับ CSAM ให้แก่บริษัทต่างๆ เพื่อช่วยสนับสนุนการต่อสู้กับ CSAM ทั่วโลก และตัว Hash Matching API เองก็มีผลโดยตรงกับหลายๆ องค์กรนอกเหนือไปจาก NCMEC บริษัทเทคโนโลยีล้วนได้รับประโยชน์จากกระบวนการที่ดีและมีประสิทธิภาพมากขึ้นจากศูนย์ของเรา รายงาน CyberTipline ได้รับการแก้ไขและจัดการตามลำดับเวลาได้ดีขึ้น และสามารถเพิ่มค่าแฮชได้มากกว่าเมื่อเทียบกับการไม่มีเครื่องมือนี้
NCMEC เป็นแหล่งข้อมูลส่วนกลางสำหรับบริษัทเทคโนโลยี หน่วยงานด้านการบังคับใช้กฎหมาย ผู้รอดชีวิต ตลอดจนครอบครัวของพวกเขา เรามองปัญหาและทางออกผ่านมุมมองที่มีความเฉพาะทางอย่างน่าทึ่ง CyberTipline ช่วยให้เราได้รับรู้ข้อมูล CSAM ที่ถูกสร้างขึ้นใหม่และที่มีอยู่แล้วซึ่งหมุนเวียนอยู่ในโลกออนไลน์ได้มากขึ้น ฝ่ายบังคับใช้กฎหมายสามารถเข้าถึงรายงานเหล่านี้ได้ทั้งหมด เราต้องไม่ลืมว่าท้ายที่สุดแล้วมีเด็กที่มีตัวตนจริงๆ ตกเป็นเหยื่อการล่วงละเมิดทางเพศและถูกฉกฉวยผลประโยชน์อยู่
เท่าที่เรารู้ เราระบุตัวเด็กที่ถูกล่วงละเมิดทางเพศได้มากกว่า 20,000 คน และการล่วงละเมิดเหล่านี้ถูกบันทึกไว้ไม่ว่าจะเป็นในรูปแบบวิดีโอหรือรูปภาพ ผู้รอดชีวิตบางคนยังเป็นเด็ก บางคนก็เป็นผู้ใหญ่แล้วในปัจจุบัน แต่ทุกคนต่างก็ต้องเผชิญกับการตกเป็นเหยื่ออย่างต่อเนื่องหากสื่ออนาจารเหล่านี้ยังปรากฏอยู่ นี่จึงเป็นเหตุผลสำคัญที่พวกเราต้องทำทุกอย่างที่ทำได้เพื่อจำกัดและลดการหมุนเวียนของสื่อแย่ๆ แบบนี้ให้ได้มากที่สุด
เรื่องหนึ่งที่เราอยากพูดให้ชัดเจนต่อสาธารณะก็คือ อย่านิ่งดูดายต่อ CSAM ที่เผยแพร่อยู่แล้วเพราะคิดว่า "เก่า" หรือ "วนซ้ำ" เราขอย้ำชัดๆ อีกครั้งเพื่อกระตุ้นเตือนว่าเด็กเหล่านี้มีตัวตนจริงๆ มีเด็กกว่า 20,000 คนที่กำลังพยายามเยียวยาบาดแผลและกลับมาใช้ชีวิตให้ได้ตามปกติอีกครั้ง ทุกข์ของพวกเขาบรรเทาลงเมื่อได้รู้ว่าบริษัทต่างๆ อย่าง Google พยายามทุกวิถีทางที่จะนำรูปภาพช่วงชีวิตอันเลวร้ายที่สุดของพวกเขาออกจากระบบ
ถ้าคุณพบภาพหรือสื่อบนโลกออนไลน์ที่มีการล่วงละเมิดทางเพศเด็ก โปรดรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ (NCMEC) หรือหน่วยงานที่เหมาะสมทั่วโลก
Google มุ่งมั่นที่จะต่อสู้กับการล่วงละเมิดทางเพศและการแสวงหาประโยชน์จากเด็กทางออนไลน์ และป้องกันไม่ให้นำบริการของเราไปใช้เผยแพร่สื่อที่มีการล่วงละเมิดทางเพศเด็ก (CSAM) ดูข้อมูลเพิ่มเติมเกี่ยวกับเรื่องนี้ได้ที่เว็บไซต์ Protecting Children
ความก้าวหน้าด้านการรักษาความมั่นคงปลอดภัยไซเบอร์
ดูว่าเราช่วยให้ผู้คนออนไลน์อย่างปลอดภัยเป็นจำนวนมากกว่าใครๆ ในโลกได้อย่างไร
ดูข้อมูลเพิ่มเติม