Chuyển đến phần Nội dung

Chiếc khiên màu xanh dương có biểu tượng chữ G màu trắng.

Khung AI bảo mật của Google (SAIF)

Tiềm năng của AI, đặc biệt là AI tạo sinh, là vô cùng to lớn. AI không ngừng đổi mới, vì vậy toàn ngành cần có những tiêu chuẩn về bảo mật để xây dựng và triển khai AI một cách có trách nhiệm. Đó là lý do chúng tôi đưa ra Khung AI bảo mật (SAIF), một khung khái niệm hướng đến việc đảm bảo an toàn cho các hệ thống AI.

6 yếu tố cốt lõi của SAIF

SAIF hướng đến việc giải quyết những vấn đề mà các chuyên gia bảo mật lo ngại nhất, chẳng hạn như quản lý rủi ro, tăng cường bảo mật và bảo vệ quyền riêng tư cho mô hình AI/học máy. Điều này góp phần đảm bảo rằng các mô hình AI đều bảo mật theo mặc định khi được triển khai.
  • Mở rộng nền tảng bảo mật vững chắc đến hệ sinh thái AI

  • Mở rộng khả năng phát hiện và ứng phó để đưa AI vào hoạt động giải quyết mối nguy trong tổ chức

  • Tự động hoá cơ chế phòng thủ để kịp thời xử lý những mối nguy mới và hiện hữu

  • Kết hợp hài hoà các biện pháp kiểm soát ở cấp độ nền tảng để đảm bảo an toàn một cách nhất quán trên toàn tổ chức

  • Áp dụng các biện pháp kiểm soát để điều chỉnh cơ chế giảm thiểu rủi ro và tạo ra vòng hồi tiếp nhanh hơn cho việc triển khai AI

  • Tìm hiểu các rủi ro ở hệ thống AI trong các quy trình thực tiễn liên quan của doanh nghiệp

Thúc đẩy một hệ sinh thái an toàn hơn

Chúng tôi rất vui mừng được chia sẻ những bước đầu trong hành trình tạo dựng hệ sinh thái SAIF trên khắp các cơ quan chính phủ, doanh nghiệp và tổ chức, nhằm thúc đẩy một khung triển khai AI an toàn và hiệu quả cho tất cả các bên.
Hình ảnh minh hoạ một lưới màu hồng đang gửi dấu nhắc đến một màn hình.

Giới thiệu SAIF.Google: Khởi điểm cho hệ thống AI bảo mật

SAIF.Google là một trung tâm tài nguyên có mục tiêu hỗ trợ các chuyên gia bảo mật thích ứng với lĩnh vực bảo mật liên quan đến AI vốn đang không ngừng biến chuyển. Trung tâm này cung cấp một danh sách các rủi ro bảo mật liên quan đến AI và các biện pháp kiểm soát, bao gồm "Báo cáo tự đánh giá rủi ro" để giúp các chuyên gia trong ngành nắm rõ những rủi ro có thể ảnh hưởng đến họ, cũng như cách thức triển khai SAIF trong tổ chức của họ. Những tài nguyên này sẽ góp phần giải quyết nhu cầu thiết yếu về việc xây dựng và triển khai các hệ thống AI bảo mật trong một thế giới đang phát triển với tốc độ chóng mặt.
Hình ảnh minh hoạ chòm sao có chiếc khiên màu xanh dương ở giữa, trên khiên là chữ G màu trắng còn xung quanh là biểu tượng toà nhà, ổ khoá, hồ sơ, quả địa cầu và tài liệu.

Đưa SAIF đến với các cơ quan chính phủ và tổ chức

Chúng tôi hợp tác cùng các cơ quan chính phủ và tổ chức nhằm chung tay giảm thiểu rủi ro bảo mật liên quan đến AI. Dự án mà chúng tôi triển khai cùng các nhà hoạch định chính sách và tổ chức về tiêu chuẩn, chẳng hạn như NIST, góp phần vào việc phát triển các khung pháp lý hoàn thiện hơn. Mới đây, chúng tôi đã nhấn mạnh vai trò của SAIF trong việc đảm bảo an toàn cho các hệ thống AI, phù hợp với cam kết về AI của Nhà Trắng.
Một vòng tròn có biểu trưng của các công ty công nghệ bên trong.

Liên minh AI bảo mật: Chung tay mở rộng SAIF với các đối tác trong ngành

Chúng tôi đang xúc tiến công việc này và thúc đẩy sự hỗ trợ trong toàn ngành bằng cách thành lập Liên minh AI bảo mật (CoSAI), với các thành viên sáng lập như Anthropic, Cisco, GenLab, IBM, Intel, Nvidia và PayPal, nhằm giải quyết những thách thức then chốt trong hoạt động triển khai các hệ thống AI bảo mật.

Tài nguyên khác

Câu hỏi thường gặp
về SAIF

Google áp dụng SAIF bằng cách nào?

Google đã có thời gian dài thúc đẩy việc phát triển an ninh mạng và AI có trách nhiệm, đồng thời đã áp dụng các phương pháp hay nhất về bảo mật vào những cải tiến về AI trong nhiều năm qua. Khung AI bảo mật được đúc kết từ bề dày kinh nghiệm và các phương pháp hay nhất mà chúng tôi đã phát triển và triển khai. Ngoài ra, khung này cũng phản ánh cách tiếp cận của Google trong việc xây dựng ứng dụng dựa trên AI tạo sinh và công nghệ học máy bằng các biện pháp bảo vệ bền vững, có khả năng thích ứng và có thể mở rộng, hướng tới đảm bảo tính bảo mật và quyền riêng tư. Chúng tôi sẽ tiếp tục phát triển và xây dựng SAIF trước những rủi ro mới, những bối cảnh đầy biến động và những tiến bộ về AI.

Làm cách nào để các chuyên gia trong ngành có thể triển khai khung này?

Xem hướng dẫn nhanh về cách triển khai SAIF:

  • Bước 1 – Hiểu rõ mục đích sử dụng
    • Việc hiểu được vấn đề kinh doanh cụ thể mà AI xử lý và dữ liệu cần có để huấn luyện mô hình sẽ góp phần thúc đẩy chính sách, giao thức và chế độ kiểm soát cần được triển khai trong SAIF.
  • Bước 2 – Tập hợp đội ngũ
    • Việc phát triển và triển khai hệ thống AI là một nỗ lực đòi hỏi sự phối hợp của nhiều bộ phận, cũng tương tự như những hệ thống thông thường.
    • Các hệ thống AI thường phức tạp và khó hiểu, mang số lượng lớn những yếu tố đầy biến động, cần đến một lượng dữ liệu khổng lồ và tiêu tốn nhiều tài nguyên. Hơn nữa, chúng có thể được sử dụng trong quá trình đánh giá để ra quyết định, cũng như có thể tạo ra nội dung mới có nguy cơ gây phản cảm, gây hại hoặc lưu truyền định kiến và thiên kiến xã hội.
    • Hãy lập các phòng ban liên ngành phù hợp để đảm bảo rằng các yếu tố về bảo mật, quyền riêng tư, rủi ro và tuân thủ được xem xét ngay từ đầu.
  • Bước 3 – Nắm rõ kiến thức cơ bản về AI

    • Khi các nhóm bắt đầu đánh giá việc sử dụng AI trong doanh nghiệp, họ sẽ gặp phải các vấn đề phức tạp, rủi ro và các biện pháp bảo mật hiện hành. Những yếu tố này rất đa dạng và liên tục phát triển. Do vậy, các bên có liên quan nhất thiết phải nắm được kiến thức cơ bản về vòng đời phát triển mô hình AI cũng như thiết kế và logic của hệ phương pháp lập mô hình, gồm cả các tính năng, ưu điểm và hạn chế.
  • Bước 4 – Áp dụng 6 yếu tố cốt lõi của SAIF

    • Những yếu tố này không nhất thiết phải được áp dụng theo trình tự thời gian.

Tôi có thể tìm thêm thông tin về SAIF ở đâu và làm thế nào để áp dụng SAIF cho doanh nghiệp hoặc tổ chức của tôi?

Hãy chú ý theo dõi! Google sẽ không ngừng xây dựng và chia sẻ các nguồn tài nguyên, tài liệu hướng dẫn và công cụ liên quan đến Khung AI bảo mật, cùng với các phương pháp hay nhất khác về việc phát triển hoạt động ứng dụng AI.

Lý do chúng tôi hỗ trợ việc xây dựng một cộng đồng AI bảo mật cho mọi người

Là một trong những công ty đầu tiên đưa ra Nguyên tắc về trí tuệ nhân tạo, chúng tôi đã thiết lập tiêu chuẩn về việc phát triển Al có trách nhiệm. Tiêu chuẩn này chính là kim chỉ nam cho quá trình phát triển sản phẩm hướng đến tính an toàn của chúng tôi. Chúng tôi ủng hộ và đã từng bước phát triển các khung tiêu chí cho toàn ngành nhằm nâng tầm tiêu chuẩn bảo mật, đồng thời chúng tôi cũng nhận thấy rằng nhất thiết phải xây dựng một cộng đồng thúc đẩy hoạt động này nếu muốn thành công lâu dài. Chính vì vậy mà chúng tôi cảm thấy rất vui mừng khi được xây dựng một cộng đồng SAIF cho tất cả các bên.