ข้ามไปยังเนื้อหา

โล่สีน้ำเงินที่มีไอคอนตัว G สีขาว

เฟรมเวิร์ก AI ที่ปลอดภัยของ Google (SAIF)

ศักยภาพของ AI โดยเฉพาะอย่างยิ่ง Generative AI นั้นไร้ขีดจำกัด ขณะที่นวัตกรรมก้าวไปข้างหน้า อุตสาหกรรมนี้จำเป็นต้องมีมาตรฐานการรักษาความปลอดภัยในการสร้างและใช้งาน AI อย่างมีความรับผิดชอบ นั่นคือเหตุผลที่เราเปิดตัวเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF) ซึ่งเป็นเฟรมเวิร์กของแนวคิดที่จะรักษาความปลอดภัยให้ระบบ AI

6 องค์ประกอบหลักของ SAIF

SAIF ออกแบบมาเพื่อแก้ไขข้อกังวลอันดับต้นๆ ของผู้เชี่ยวชาญด้านความปลอดภัย เช่น การจัดการความเสี่ยงของโมเดล AI/ML, การรักษาความปลอดภัย และความเป็นส่วนตัว เพื่อช่วยให้มั่นใจได้ว่าเมื่อนำโมเดล AI ไปใช้งาน โมเดลเหล่านี้ก็จะปลอดภัยโดยค่าเริ่มต้น
  • ขยายพื้นฐานการรักษาความปลอดภัยที่แข็งแกร่งให้ระบบนิเวศ AI

  • ขยายการตรวจจับและการตอบสนองภัยคุกคามขององค์กรให้ครอบคลุมการทำงานของ AI ด้วย

  • ทำให้การป้องกันเป็นระบบอัตโนมัติเพื่อก้าวทันทั้งภัยคุกคามเดิมและที่เกิดขึ้นใหม่

  • ผสานการควบคุมระดับแพลตฟอร์มเป็นหนึ่งเดียวกันเพื่อให้มั่นใจได้ถึงความปลอดภัยที่สอดคล้องกันทั้งองค์กร

  • ปรับการควบคุมเพื่อลดความเสี่ยงและสร้างกระบวนการนำฟีดแบ็กมาแก้ไขที่รวดเร็วขึ้นสำหรับการใช้งาน AI

  • ประเมินความเสี่ยงของระบบ AI เมื่อนำไปใช้ในกระบวนการธุรกิจที่เกี่ยวข้อง

การทำให้ระบบนิเวศปลอดภัยยิ่งขึ้น

เราตื่นเต้นอย่างยิ่งที่จะได้บอกเล่าถึงก้าวแรกในเส้นทางสู่การสร้างระบบนิเวศ SAIF สำหรับทั้งภาครัฐบาล เอกชน และองค์กรต่างๆ เพื่อเพิ่มความก้าวหน้าให้เฟรมเวิร์กที่จะทำให้ AI ใช้งานได้อย่างปลอดภัยซึ่งเหมาะสำหรับทุกฝ่าย
กราฟิกแสดงตารางกริดสีชมพูที่ส่งพรอมต์ไปยังหน้าจอ

ขอแนะนำ SAIF.Google: AI ที่ปลอดภัยเริ่มต้นที่นี่

SAIF.Google เป็นศูนย์รวมแหล่งข้อมูลเพื่อช่วยผู้เชี่ยวชาญด้านความปลอดภัยในการทำความเข้าใจภูมิทัศน์ของการรักษาความปลอดภัยให้ AI ที่เปลี่ยนแปลงอยู่ตลอดเวลา ซึ่งเว็บไซต์นี้ได้รวบรวมความเสี่ยงและการควบคุมต่างๆ ในด้านความปลอดภัยของ AI รวมถึง "รายงานการประเมินความเสี่ยงด้วยตนเอง" เพื่อเป็นแนวทางสำหรับผู้ปฏิบัติในการทำความเข้าใจความเสี่ยงต่างๆ ที่อาจส่งผลกระทบต่อพวกเขาและวิธีการนำ SAIF ไปใช้ในองค์กรของตนเอง แหล่งข้อมูลเหล่านี้จะช่วยตอบสนองความต้องการที่สำคัญอย่างยิ่งในการสร้างและปรับใช้ระบบ AI ที่ปลอดภัยในโลกที่เปลี่ยนแปลงอย่างรวดเร็ว
กราฟิกกลุ่มดาวที่มีโล่สีน้ำเงินพร้อมตัว G สีขาวอยู่ตรงกลาง ล้อมรอบด้วยไอคอนอาคาร แม่กุญแจ โปรไฟล์ โลก และเอกสาร

การนำ SAIF ไปสู่รัฐบาลและองค์กรต่างๆ

เราร่วมมือกับรัฐบาลและองค์กรต่างๆ เพื่อช่วยลดความเสี่ยงด้านความปลอดภัยของ AI การทำงานร่วมกับผู้กำหนดนโยบายและองค์กรด้านมาตรฐาน เช่น NIST ส่งผลให้กรอบการกำกับดูแลเปลี่ยนแปลงไป เมื่อไม่นานมานี้เราได้เน้นย้ำถึงบทบาทของ SAIF ในการรักษาความปลอดภัยให้กับระบบ AI โดยสอดคล้องกับความมุ่งมั่นทางด้าน AI ของทำเนียบขาว
วงกลมที่มีโลโก้บริษัทเทคโนโลยีอยู่ด้านใน

Coalition for Secure AI: การขยาย SAIF ร่วมกับพันธมิตรในอุตสาหกรรม

เรากำลังผลักดันงานนี้ให้เดินหน้าและส่งเสริมการสนับสนุนจากอุตสาหกรรมด้วยการก่อตั้ง Coalition for Secure AI (CoSAI) โดยมีสมาชิกผู้ก่อตั้งอย่าง Anthropic, Cisco, GenLab, IBM, Intel, Nvidia และ PayPal เพื่อรับมือกับความท้าทายที่สำคัญในการนำระบบ AI ที่ปลอดภัยไปใช้

แหล่งข้อมูลเพิ่มเติม

คำถามที่พบบ่อย
เกี่ยวกับ SAIF

SAIF และ AI ที่มีความรับผิดชอบเกี่ยวข้องกันอย่างไร

Google มีความจำเป็นที่จะต้องสร้าง AI อย่างมีความรับผิดชอบ และสนับสนุนให้ผู้อื่นทำเช่นเดียวกัน หลักการเกี่ยวกับ AI ของเราที่เผยแพร่ในปี 2018 ได้อธิบายถึงความมุ่งมั่นที่เรามีต่อการพัฒนาเทคโนโลยีอย่างมีความรับผิดชอบ และในลักษณะที่สร้างมาเพื่อความปลอดภัย ทำให้เกิดความรับผิดชอบ และรักษามาตรฐานระดับสูงของความเป็นเลิศทางวิทยาศาสตร์ AI ที่มีความรับผิดชอบคือแนวทางของเราที่ครอบคลุมหลากหลายมิติ เช่น "ความยุติธรรม" "ความสามารถในการตีความ" "ความปลอดภัย" และ "ความเป็นส่วนตัว" ที่กำหนดแนวทางการพัฒนาผลิตภัณฑ์ AI ทั้งหมดของ Google

SAIF คือเฟรมเวิร์กสำหรับการสร้างแนวทางแบบองค์รวมที่มีมาตรฐานเพื่อผสานรวมมาตรการด้านความปลอดภัยและความเป็นส่วนตัวลงในการใช้แอปพลิเคชันที่ทำงานด้วย ML ซึ่งจะสอดคล้องกับมิติด้าน "ความปลอดภัย" และ "ความเป็นส่วนตัว" ของการสร้าง AI อย่างมีความรับผิดชอบ SAIF ทำให้มั่นใจได้ว่าแอปพลิเคชันที่ทำงานด้วย ML จะพัฒนาขึ้นในลักษณะที่มีความรับผิดชอบ โดยคำนึงถึงสถานการณ์ด้านภัยคุกคามและความคาดหวังของผู้ใช้ที่เปลี่ยนแปลงอยู่เสมอ

Google ทำให้ SAIF เกิดขึ้นจริงได้อย่างไร

Google มีประวัติศาสตร์อันยาวนานในการผลักดัน AI ที่มีความรับผิดชอบและพัฒนาการรักษาความมั่นคงปลอดภัยไซเบอร์ และเรายังริเริ่มนำแนวทางปฏิบัติแนะนำด้านความปลอดภัยมาใช้กับนวัตกรรม AI มาตลอดหลายปี เฟรมเวิร์ก AI ที่ปลอดภัยของเรากลั่นออกมาจากตัวประสบการณ์และแนวทางปฏิบัติแนะนำที่เราได้พัฒนาขึ้นและนำไปใช้งาน และสะท้อนให้เห็นถึงแนวทางของ Google ในการสร้างแอปที่ทำงานด้วย ML และ Generative AI ด้วยการป้องกันที่ตอบสนองฉับไว ยั่งยืน และรองรับการปรับขนาดเพื่อความปลอดภัยและความเป็นส่วนตัว เราจะเดินหน้าพัฒนาและสร้าง SAIF ต่อไปเพื่อรับมือกับความเสี่ยงใหม่ๆ สถานการณ์ที่เปลี่ยนแปลงอยู่เสมอ และความก้าวล้ำด้าน AI

ผู้ปฏิบัติงานจะนำเฟรมเวิร์กนี้ไปใช้ได้อย่างไร

ดู คู่มือฉบับย่อ ของเราในการนำเฟรมเวิร์ก SAIF ไปใช้

  • ขั้นที่ 1 - ทำความเข้าใจการใช้งาน
    • การทำความเข้าใจปัญหาทางธุรกิจบางอย่างที่ AI จะแก้ไขและข้อมูลที่จำเป็นสำหรับการฝึกโมเดล จะช่วยผลักดันนโยบาย โปรโตคอล และการควบคุมที่จำเป็นต้องนำไปใช้ในฐานะส่วนหนึ่งของ SAIF
  • ขั้นที่ 2 - สร้างทีม
    • การพัฒนาและทำให้ระบบ AI ใช้งานได้นั้นไม่ต่างอะไรกับระบบแบบดั้งเดิมที่ต้องใช้ความร่วมมือแบบสหวิทยาการ
    • ระบบ AI มักซับซ้อนและไม่ชัดเจน มีตัวแปรมากมาย ต้องอาศัยข้อมูลจำนวนมหาศาล ใช้ทรัพยากรมาก มีผลต่อวิจารณญาณในการตัดสินใจ และอาจสร้างเรื่องแต่งที่ไม่เหมาะสม เป็นอันตราย หรือทำให้เกิดการเหมารวมและอคติทางสังคมไม่รู้จบ
    • สร้างทีมจากหลายหน่วยงานที่เหมาะสมเพื่อให้มั่นใจได้ว่าจะมีการพิจารณาถึงความปลอดภัย ความเป็นส่วนตัว ความเสี่ยง และการปฏิบัติตามข้อกำหนดตั้งแต่เริ่มแรก
  • ขั้นที่ 3 - เตรียมความพร้อมด้วยข้อมูลเบื้องต้นเกี่ยวกับ AI

    • ในขณะที่ทีมต่างๆ เริ่มประเมินการใช้งาน AI ทางธุรกิจ ความซับซ้อนที่หลากหลายและเปลี่ยนแปลงอยู่ตลอด ความเสี่ยง ตลอดจนการควบคุมความปลอดภัยที่นำมาใช้ สิ่งสำคัญอย่างยิ่งก็คือทุกฝ่ายที่เกี่ยวข้องต้องเข้าใจ พื้นฐานของวงจรการพัฒนาโมเดล AI การออกแบบและตรรกะของหลักการด้านโมเดล รวมถึงความสามารถ ข้อดี และข้อจำกัดต่างๆ
  • ขั้นที่ 4 - นำ 6 องค์ประกอบหลักของ SAIF ไปใช้

    • องค์ประกอบเหล่านี้ไม่ได้มีเจตนาให้นำไปใช้ตามลำดับ

จะหาข้อมูลเพิ่มเติมเกี่ยวกับ SAIF ได้ที่ไหน และจะนำไปใช้กับธุรกิจหรือหน่วยงานของฉันได้อย่างไร

โปรดอดใจรอ Google จะเดินหน้าสร้างและแชร์แหล่งข้อมูล คำแนะนำ และเครื่องมือของเฟรมเวิร์ก AI ที่ปลอดภัยต่อไป รวมถึงแนวทางปฏิบัติแนะนำอื่นๆ ด้านการพัฒนาแอปพลิเคชัน AI ด้วย

สาเหตุที่เราสนับสนุนชุมชน AI ที่ปลอดภัยสำหรับทุกคน

ในฐานะหนึ่งในบริษัทแรกๆ ที่ทำหลักการด้าน AI ขึ้นมา เราได้กำหนดมาตรฐานสำหรับ AI ที่มีความรับผิดชอบ และหลักการนี้ยังเป็นสิ่งที่นำทางเราในการพัฒนาผลิตภัณฑ์เพื่อความปลอดภัย เราได้สนับสนุนและพัฒนาเฟรมเวิร์กของอุตสาหกรรมเพื่อยกระดับการรักษาความปลอดภัย และได้เรียนรู้ว่าการสร้างชุมชนที่ทำให้งานนี้ก้าวหน้าคือสิ่งสำคัญยิ่งต่อการประสบความสำเร็จในระยะยาว นั่นจึงเป็นเหตุผลที่เราตื่นเต้นที่จะสร้างชุมชน SAIF เพื่อทุกคน