เฟรมเวิร์ก AI ที่ปลอดภัยของ Google
(SAIF)
ศักยภาพของ AI โดยเฉพาะอย่างยิ่ง Generative AI นั้นไร้ขีดจำกัด ขณะที่นวัตกรรมก้าวไปข้างหน้า อุตสาหกรรมนี้จำเป็นต้องมีมาตรฐานการรักษาความปลอดภัยในการสร้างและใช้งาน AI อย่างมีความรับผิดชอบ นั่นคือเหตุผลที่เราเปิดตัวเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF) ซึ่งเป็นเฟรมเวิร์กของแนวคิดที่จะรักษาความปลอดภัยให้ระบบ AI
6 องค์ประกอบหลักของ SAIF
-
ขยายพื้นฐานการรักษาความปลอดภัยที่แข็งแกร่งให้ระบบนิเวศ AI
-
ขยายการตรวจจับและการตอบสนองภัยคุกคามขององค์กรให้ครอบคลุมการทำงานของ AI ด้วย
-
ทำให้การป้องกันเป็นระบบอัตโนมัติเพื่อก้าวทันทั้งภัยคุกคามเดิมและที่เกิดขึ้นใหม่
-
ผสานการควบคุมระดับแพลตฟอร์มเป็นหนึ่งเดียวกันเพื่อให้มั่นใจได้ถึงความปลอดภัยที่สอดคล้องกันทั้งองค์กร
-
ปรับการควบคุมเพื่อลดความเสี่ยงและสร้างกระบวนการนำฟีดแบ็กมาแก้ไขที่รวดเร็วขึ้นสำหรับการใช้งาน AI
-
ประเมินความเสี่ยงของระบบ AI เมื่อนำไปใช้ในกระบวนการธุรกิจที่เกี่ยวข้อง
การทำให้ระบบนิเวศปลอดภัยยิ่งขึ้น
แหล่งข้อมูลเพิ่มเติม
คำถามที่พบบ่อย
เกี่ยวกับ SAIF
Google มีความจำเป็นที่จะต้องสร้าง AI อย่างมีความรับผิดชอบ และสนับสนุนให้ผู้อื่นทำเช่นเดียวกัน หลักการเกี่ยวกับ AI ของเราที่เผยแพร่ในปี 2018 ได้อธิบายถึงความมุ่งมั่นที่เรามีต่อการพัฒนาเทคโนโลยีอย่างมีความรับผิดชอบ และในลักษณะที่สร้างมาเพื่อความปลอดภัย ทำให้เกิดความรับผิดชอบ และรักษามาตรฐานระดับสูงของความเป็นเลิศทางวิทยาศาสตร์ AI ที่มีความรับผิดชอบคือแนวทางของเราที่ครอบคลุมหลากหลายมิติ เช่น "ความยุติธรรม" "ความสามารถในการตีความ" "ความปลอดภัย" และ "ความเป็นส่วนตัว" ที่กำหนดแนวทางการพัฒนาผลิตภัณฑ์ AI ทั้งหมดของ Google
SAIF คือเฟรมเวิร์กสำหรับการสร้างแนวทางแบบองค์รวมที่มีมาตรฐานเพื่อผสานรวมมาตรการด้านความปลอดภัยและความเป็นส่วนตัวลงในการใช้แอปพลิเคชันที่ทำงานด้วย ML ซึ่งจะสอดคล้องกับมิติด้าน "ความปลอดภัย" และ "ความเป็นส่วนตัว" ของการสร้าง AI อย่างมีความรับผิดชอบ SAIF ทำให้มั่นใจได้ว่าแอปพลิเคชันที่ทำงานด้วย ML จะพัฒนาขึ้นในลักษณะที่มีความรับผิดชอบ โดยคำนึงถึงสถานการณ์ด้านภัยคุกคามและความคาดหวังของผู้ใช้ที่เปลี่ยนแปลงอยู่เสมอ
Google มีประวัติศาสตร์อันยาวนานในการผลักดัน AI ที่มีความรับผิดชอบและพัฒนาการรักษาความมั่นคงปลอดภัยไซเบอร์ และเรายังริเริ่มนำแนวทางปฏิบัติแนะนำด้านความปลอดภัยมาใช้กับนวัตกรรม AI มาตลอดหลายปี เฟรมเวิร์ก AI ที่ปลอดภัยของเรากลั่นออกมาจากตัวประสบการณ์และแนวทางปฏิบัติแนะนำที่เราได้พัฒนาขึ้นและนำไปใช้งาน และสะท้อนให้เห็นถึงแนวทางของ Google ในการสร้างแอปที่ทำงานด้วย ML และ Generative AI ด้วยการป้องกันที่ตอบสนองฉับไว ยั่งยืน และรองรับการปรับขนาดเพื่อความปลอดภัยและความเป็นส่วนตัว เราจะเดินหน้าพัฒนาและสร้าง SAIF ต่อไปเพื่อรับมือกับความเสี่ยงใหม่ๆ สถานการณ์ที่เปลี่ยนแปลงอยู่เสมอ และความก้าวล้ำด้าน AI
ดู คู่มือฉบับย่อ ของเราในการนำเฟรมเวิร์ก SAIF ไปใช้
- ขั้นที่ 1 - ทำความเข้าใจการใช้งาน
- การทำความเข้าใจปัญหาทางธุรกิจบางอย่างที่ AI จะแก้ไขและข้อมูลที่จำเป็นสำหรับการฝึกโมเดล จะช่วยผลักดันนโยบาย โปรโตคอล และการควบคุมที่จำเป็นต้องนำไปใช้ในฐานะส่วนหนึ่งของ SAIF
- ขั้นที่ 2 - สร้างทีม
- การพัฒนาและทำให้ระบบ AI ใช้งานได้นั้นไม่ต่างอะไรกับระบบแบบดั้งเดิมที่ต้องใช้ความร่วมมือแบบสหวิทยาการ
- ระบบ AI มักซับซ้อนและไม่ชัดเจน มีตัวแปรมากมาย ต้องอาศัยข้อมูลจำนวนมหาศาล ใช้ทรัพยากรมาก มีผลต่อวิจารณญาณในการตัดสินใจ และอาจสร้างเรื่องแต่งที่ไม่เหมาะสม เป็นอันตราย หรือทำให้เกิดการเหมารวมและอคติทางสังคมไม่รู้จบ
- สร้างทีมจากหลายหน่วยงานที่เหมาะสมเพื่อให้มั่นใจได้ว่าจะมีการพิจารณาถึงความปลอดภัย ความเป็นส่วนตัว ความเสี่ยง และการปฏิบัติตามข้อกำหนดตั้งแต่เริ่มแรก
-
ขั้นที่ 3 - เตรียมความพร้อมด้วยข้อมูลเบื้องต้นเกี่ยวกับ AI
- ในขณะที่ทีมต่างๆ เริ่มประเมินการใช้งาน AI ทางธุรกิจ ความซับซ้อนที่หลากหลายและเปลี่ยนแปลงอยู่ตลอด ความเสี่ยง ตลอดจนการควบคุมความปลอดภัยที่นำมาใช้ สิ่งสำคัญอย่างยิ่งก็คือทุกฝ่ายที่เกี่ยวข้องต้องเข้าใจ พื้นฐานของวงจรการพัฒนาโมเดล AI การออกแบบและตรรกะของหลักการด้านโมเดล รวมถึงความสามารถ ข้อดี และข้อจำกัดต่างๆ
-
ขั้นที่ 4 - นำ 6 องค์ประกอบหลักของ SAIF ไปใช้
- องค์ประกอบเหล่านี้ไม่ได้มีเจตนาให้นำไปใช้ตามลำดับ
โปรดอดใจรอ Google จะเดินหน้าสร้างและแชร์แหล่งข้อมูล คำแนะนำ และเครื่องมือของเฟรมเวิร์ก AI ที่ปลอดภัยต่อไป รวมถึงแนวทางปฏิบัติแนะนำอื่นๆ ด้านการพัฒนาแอปพลิเคชัน AI ด้วย