เฟรมเวิร์ก AI ที่ปลอดภัย
(SAIF) ของ Google

ศักยภาพของ AI โดยเฉพาะอย่างยิ่ง Generative AI นั้นไร้ขีดจำกัด ขณะที่นวัตกรรมก้าวไปข้างหน้า อุตสาหกรรมนี้จำเป็นต้องมีมาตรฐานการรักษาความปลอดภัยในการสร้างและใช้งาน AI อย่างมีความรับผิดชอบ นั่นคือเหตุผลที่เราเปิดตัวเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF) ซึ่งเป็นเฟรมเวิร์กของแนวคิดที่จะรักษาความปลอดภัยให้ระบบ AI

6 องค์ประกอบหลักของ SAIF

SAIF ออกแบบมาเพื่อแก้ไขข้อกังวลที่สำคัญที่สุดสำหรับผู้เชี่ยวชาญด้านความปลอดภัย เช่น การจัดการความเสี่ยงของโมเดล AI/ML, การรักษาความปลอดภัย และความเป็นส่วนตัว เพื่อช่วยให้มั่นใจได้ว่าเมื่อนำโมเดล AI ไปใช้งาน โมเดลเหล่านี้ก็จะปลอดภัยโดยค่าเริ่มต้น

ขยายพื้นฐานการรักษาความปลอดภัยที่แข็งแกร่งให้ระบบนิเวศ AI
ขยายการตรวจจับและการตอบสนองภัยคุกคามขององค์กรให้ครอบคลุมการทำงานของ AI ด้วย
ทำให้การป้องกันเป็นระบบอัตโนมัติเพื่อก้าวทันทั้งภัยคุกคามเดิมและที่เกิดขึ้นใหม่
ผสานการควบคุมระดับแพลตฟอร์มเป็นหนึ่งเดียวกันเพื่อให้มั่นใจได้ถึงความปลอดภัยที่สอดคล้องกันทั้งองค์กร
ใช้ตัวควบคุมเพื่อปรับการลดความเสี่ยงและสร้างการเก็บฟีดแบ็กมาแก้ไขที่รวดเร็วขึ้นสำหรับการทำให้ AI ใช้งานได้
ประเมินความเสี่ยงของระบบ AI เมื่อนำไปใช้ในกระบวนการธุรกิจที่เกี่ยวข้อง
การทำให้ระบบนิเวศปลอดภัยยิ่งขึ้น

เราตื่นเต้นอย่างยิ่งที่จะได้บอกเล่าถึงก้าวแรกในเส้นทางสู่การสร้างระบบนิเวศ SAIF สำหรับทั้งภาครัฐบาล เอกชน และองค์กรต่างๆ เพื่อเพิ่มความก้าวหน้าให้เฟรมเวิร์กที่จะทำให้ AI ใช้งานได้อย่างปลอดภัยซึ่งเหมาะสำหรับทุกฝ่าย

การนำ SAIF ไปสู่รัฐบาลและองค์กรต่างๆ

เราร่วมมือกับรัฐบาลและองค์กรต่างๆ เพื่อช่วยลดความเสี่ยงด้านความปลอดภัยของ AI การทำงานร่วมกับผู้กำหนดนโยบายและองค์กรด้านมาตรฐาน เช่น NIST ส่งผลให้เฟรมเวิร์กด้านการกำกับดูแลเปลี่ยนแปลงไป เราเพิ่งไฮไลต์บทบาทของ SAIF ในการรักษาความปลอดภัยให้ระบบ AI โดยสอดคล้องกับความมุ่งมั่นทางด้าน AI ของทำเนียบขาว

การขยาย SAIF กับพันธมิตรในอุตสาหกรรม

เรากำลังส่งเสริมการรองรับ SAIF ในระดับอุตสาหกรรมกับพาร์ทเนอร์และลูกค้า จัดเวิร์กช็อป SAIF กับผู้ปฏิบัติงาน และเผยแพร่แนวทางปฏิบัติแนะนำด้านการรักษาความปลอดภัยของ AI เราเป็นพาร์ทเนอร์กับ Deloitte ในการทำสมุดปกขาวเกี่ยวกับวิธีที่องค์กรจะสามารถใช้งาน AI แก้ปัญหาด้านมาตรการรักษาความปลอดภัย

แหล่งข้อมูลเพิ่มเติม
คำถามทั่วไปเกี่ยวกับ SAIF

SAIF และ AI ที่มีความรับผิดชอบเกี่ยวข้องกันอย่างไร

Google มีความจำเป็นที่จะต้องสร้าง AI อย่างมีความรับผิดชอบ และสนับสนุนให้ผู้อื่นทำเช่นเดียวกัน หลักการเกี่ยวกับ AI ของเราที่เผยแพร่ในปี 2018 ได้อธิบายถึงความมุ่งมั่นที่เรามีต่อการพัฒนาเทคโนโลยีอย่างมีความรับผิดชอบ และในลักษณะที่สร้างมาเพื่อความปลอดภัย ทำให้เกิดความรับผิดชอบ และส่งเสริมมาตรฐานระดับสูงด้านความเป็นเลิศทางวิทยาศาสตร์ AI ที่มีความรับผิดชอบคือแนวทางที่ครอบคลุมของเราซึ่งมีหลากหลายมิติ เช่น "ความยุติธรรม" "ความสามารถในการตีความ" "ความปลอดภัย" และ "ความเป็นส่วนตัว" ที่กำหนดแนวทางการพัฒนาผลิตภัณฑ์ AI ทั้งหมดของ Google

SAIF คือเฟรมเวิร์กสำหรับการสร้างแนวทางแบบองค์รวมที่มีมาตรฐานเพื่อผสานรวมมาตรการด้านความปลอดภัยและความเป็นส่วนตัวลงในการใช้แอปพลิเคชันที่ทำงานด้วย ML ซึ่งจะสอดคล้องกับมิติด้าน "ความปลอดภัย" และ "ความเป็นส่วนตัว" ของการสร้าง AI อย่างมีความรับผิดชอบ SAIF ทำให้มั่นใจได้ว่าแอปพลิเคชันที่ทำงานด้วย ML-จะพัฒนาขึ้นในลักษณะที่มีความรับผิดชอบ โดยคำนึงถึงสถานการณ์ด้านภัยคุกคามและความคาดหวังของผู้ใช้ที่เปลี่ยนแปลงอยู่เสมอ

Google ทำให้ SAIF เกิดขึ้นจริงได้อย่างไร

Google มีประวัติศาสตร์อันยาวนานในการผลักดัน AI ที่มีความรับผิดชอบและพัฒนาการรักษาความมั่นคงปลอดภัยไซเบอร์ และเรายังริเริ่มนำแนวทางปฏิบัติแนะนำด้านความปลอดภัยมาใช้กับนวัตกรรม AI ใหม่ๆ มาตลอดหลายปี เฟรมเวิร์ก AI ที่ปลอดภัยของเรากลั่นออกมาจากตัวประสบการณ์และแนวทางปฏิบัติแนะนำที่เราได้พัฒนาขึ้นและนำไปใช้งาน และสะท้อนให้เห็นถึงแนวทางของ Google ในการสร้างแอปที่ทำงานด้วย ML และ Gen AI ด้วยการป้องกันที่ตอบสนองฉับไว ยั่งยืน และรองรับการปรับขนาดเพื่อความปลอดภัยและความเป็นส่วนตัว เราจะเดินหน้าพัฒนาและสร้าง SAIF ต่อไปเพื่อรับมือกับความเสี่ยงใหม่ๆ สถานการณ์ที่เปลี่ยนแปลงอยู่เสมอ และความก้าวล้ำด้าน AI

ผู้ปฏิบัติงานจะนำเฟรมเวิร์กนี้ไปใช้ได้อย่างไร

ดูคู่มือฉบับย่อของเราในการนำเฟรมเวิร์ก SAIF ไปใช้

  • ขั้นที่ 1 ทำความเข้าใจการใช้งาน
    • การทำความเข้าใจปัญหาทางธุรกิจบางอย่างที่ AI จะแก้ไขและข้อมูลที่จำเป็นสำหรับการฝึกโมเดล จะช่วยผลักดันนโยบาย โปรโตคอล และการควบคุมที่จำเป็นต้องนำไปใช้ในฐานะส่วนหนึ่งของ SAIF
  • ขั้นที่ 2 - สร้างทีม
    • การพัฒนาและทำให้ระบบ AI ใช้งานได้นั้นไม่ต่างอะไรกับระบบแบบดั้งเดิมที่ต้องใช้ความร่วมมือแบบสหวิทยาการ
    • ระบบ AI มักซับซ้อนและไม่ชัดเจน มีตัวแปรมากมาย ต้องอาศัยข้อมูลจำนวนมหาศาล ใช้ทรัพยากรมาก มีผลต่อวิจารณญาณในการตัดสินใจ และอาจสร้างเรื่องแต่งที่ไม่เหมาะสม เป็นอันตราย หรือทำให้เกิดการเหมารวมและอคติทางสังคมไม่รู้จบ
    • สร้างทีมจากหลายหน่วยงานที่เหมาะสมเพื่อให้มั่นใจได้ว่าจะมีการพิจารณาถึงความปลอดภัย ความเป็นส่วนตัว ความเสี่ยง และการปฏิบัติตามข้อกำหนดตั้งแต่เริ่มแรก
  • ขั้นที่ 3 - เตรียมความพร้อมด้วยข้อมูลเบื้องต้นเกี่ยวกับ AI
    • ในขณะที่ทีมต่างๆ เริ่มประเมินการใช้งานทางธุรกิจ ความซับซ้อนที่หลากหลายและเปลี่ยนแปลงอยู่ตลอด ความเสี่ยง ตลอดจนการควบคุมความปลอดภัยที่นำมาใช้ สิ่งสำคัญอย่างยิ่งก็คือทุกฝ่ายที่เกี่ยวข้องต้องเข้าใจพื้นฐานของวงจรการพัฒนาโมเดล AI การออกแบบและตรรกะของหลักการด้านโมเดล รวมถึงความสามารถ ข้อดี และข้อจำกัดต่างๆ
  • ขั้นที่ 4 - นำ 6 องค์ประกอบหลักของ SAIF ไปใช้ (ระบุไว้ข้างต้น)
    • องค์ประกอบเหล่านี้ไม่ได้มีเจตนาให้นำไปใช้ตามลำดับ

จะหาข้อมูลเพิ่มเติมเกี่ยวกับ SAIF ได้ที่ไหน และจะนำไปใช้กับธุรกิจหรือหน่วยงานของฉันได้อย่างไร

โปรดอดใจรอ Google จะเดินหน้าสร้างและแชร์แหล่งข้อมูล คำแนะนำ และเครื่องมือของเฟรมเวิร์ก AI ที่ปลอดภัยต่อไป รวมถึงแนวทางปฏิบัติแนะนำอื่นๆ ด้านการพัฒนาแอปพลิเคชัน AI ด้วย

สาเหตุที่เราสนับสนุนชุมชน AI ที่ปลอดภัยสำหรับทุกคน

ในฐานะหนึ่งในบริษัทแรกๆ ที่ทำหลักการด้าน Al ขึ้นมา เราได้กำหนดมาตรฐานสำหรับ Al ที่มีความรับผิดชอบ ซึ่งเป็นสิ่งที่นำทางให้เราพัฒนาผลิตภัณฑ์เพื่อความปลอดภัย เราได้สนับสนุนและพัฒนาเฟรมเวิร์กของอุตสาหกรรมเพื่อยกระดับการรักษาความปลอดภัย และได้เรียนรู้ว่าการสร้างชุมชนที่ทำให้งานนี้ก้าวหน้าคือสิ่งสำคัญยิ่งต่อการประสบความสำเร็จในระยะยาว นั่นจึงเป็นเหตุผลที่เราตื่นเต้นที่จะสร้างชุมชน SAIF เพื่อทุกคน

ความก้าวหน้าด้านการรักษาความมั่นคงปลอดภัยไซเบอร์

ดูว่าเราช่วยให้ผู้คนออนไลน์อย่างปลอดภัยเป็นจำนวนมากกว่าใครๆ ในโลกได้อย่างไร