Khung AI bảo mật của Google
(SAIF)

Tiềm năng của AI, đặc biệt là AI tạo sinh, là vô cùng to lớn. AI không ngừng đổi mới, vì vậy toàn ngành cần có những tiêu chuẩn về bảo mật để xây dựng và triển khai AI một cách có trách nhiệm. Đó là lý do chúng tôi đưa ra Khung AI bảo mật (SAIF), một khung khái niệm hướng đến việc đảm bảo an toàn cho các hệ thống AI.

Sáu yếu tố cốt lõi của SAIF

SAIF hướng đến việc giải quyết những mối lo ngại hàng đầu của các chuyên gia bảo mật, chẳng hạn như quản lý rủi ro, bảo mật và quyền riêng tư cho mô hình AI/học máy — giúp đảm bảo rằng khi các mô hình AI được triển khai thì chúng đều an toàn theo mặc định.

Mở rộng nền tảng bảo mật vững chắc đến hệ sinh thái AI
Mở rộng khả năng phát hiện và ứng phó để đưa AI vào hoạt động giải quyết mối nguy trong tổ chức
Tự động hoá cơ chế phòng thủ trước những mối nguy mới và hiện hữu
Chẩn hoá các biện pháp kiểm soát nền tảng để đảm bảo an ninh một cách nhất quán trên toàn tổ chức
Áp dụng các biện pháp kiểm soát để điều chỉnh cơ chế giảm thiểu rủi ro và tạo ra vòng hồi tiếp nhanh hơn cho việc triển khai AI
Tìm hiểu các rủi ro ở hệ thống AI trong các quy trình thực tiễn liên quan của doanh nghiệp
Thúc đẩy một hệ sinh thái
an toàn hơn

Chúng tôi rất vui mừng được chia sẻ những bước đầu trong hành trình tạo dựng hệ sinh thái SAIF trên khắp các chính phủ, doanh nghiệp và tổ chức, nhằm thúc đẩy một khung triển khai AI an toàn và hiệu quả cho tất cả các bên.

Đưa SAIF đến với các chính phủ và tổ chức

Chúng tôi hợp tác cùng các chính phủ và tổ chức nhằm góp phần giảm thiểu rủi ro bảo mật liên quan đến AI. Dự án của chúng tôi với các nhà hoạch định chính sách và tổ chức tiêu chuẩn hoá, chẳng hạn như NIST, góp phần vào việc phát triển các khuôn khổ quản lý hoàn thiện hơn. Mới đây, chúng tôi đã nhấn mạnh về vai trò của SAIF trong việc đảm bảo an toàn cho các hệ thống AI, phù hợp với cam kết về AI của Nhà Trắng.

Mở rộng phạm vi áp dụng SAIF với các đối tác trong ngành

Chúng tôi thúc đẩy việc hỗ trợ SAIF trong ngành cho các đối tác và khách hàng, tổ chức hội thảo về SAIF với những người triển khai, đồng thời xuất bản các phương pháp hay nhất về bảo mật liên quan đến AI. Chúng tôi hợp tác với Deloitte để xuất bản một cuốn sách trắng về cách mà các tổ chức có thể sử dụng AI để ứng phó với những thách thức về bảo mật.

Tài nguyên khác
Câu hỏi thường gặp về SAIF

SAIF và cách tiếp cận AI có trách nhiệm có liên hệ như thế nào với nhau?

Google vô cùng chú trọng việc xây dựng AI có trách nhiệm và thúc đẩy mọi người cùng thực hiện điều này. Nguyên tắc về trí tuệ nhân tạo của Google, được xuất bản vào năm 2018, mô tả cam kết của chúng tôi đối với việc phát triển công nghệ có trách nhiệm, hướng tới sự an toàn, hỗ trợ thực hiện trách nhiệm giải trình và củng cố những tiêu chuẩn cao về nghiên cứu và ứng dụng khoa học. AI có trách nhiệm là hướng tiếp cận bao quát của chúng tôi, trong đó có một số phương diện như "Sự công bằng", "Mức độ diễn giải", "Tính bảo mật" và "Quyền riêng tư" được coi là kim chỉ nam cho toàn bộ hoạt động phát triển sản phẩm AI của Google.

SAIF giúp chúng tôi tạo ra một cách tiếp cận được chuẩn hoá và toàn diện, nhằm tích hợp các biện pháp về bảo mật và quyền riêng tư vào ứng dụng sử dụng công nghệ học máy. Điều này phù hợp với các phương diện "Tính bảo mật" và "Quyền riêng tư" liên quan đến hoạt động xây dựng AI có trách nhiệm. SAIF giúp đảm bảo rằng các ứng dụng sử dụng công nghệ học máy được phát triển một cách có trách nhiệm, có suy xét đến sự tiến triển không ngừng của các nguy cơ cũng như kỳ vọng của người dùng.

Google áp dụng SAIF bằng cách nào?

Google đã có thời gian dài thúc đẩy phát triển an ninh mạng và AI có trách nhiệm, đồng thời nhiều năm qua chúng tôi cũng áp dụng các phương pháp hay nhất về bảo mật vào những đột phá về AI. Khung AI bảo mật được đúc kết từ bề dày kinh nghiệm và phương pháp hay mà chúng tôi đã phát triển và triển khai. Đồng thời, khung này cũng phản ánh cách tiếp cận của Google trong việc xây dựng ứng dụng dựa trên AI tạo sinh và công nghệ học máy bằng các biện pháp bảo vệ thích ứng, bền vững và có thể mở rộng, hướng tới đảm bảo tính bảo mật và quyền riêng tư. Chúng tôi sẽ tiếp tục phát triển và xây dựng SAIF trước những rủi ro mới, những bối cảnh đầy biến động và những tiến bộ về AI.

Làm cách nào để các chuyên gia trong ngành có thể triển khai khung này?

Xem hướng dẫn nhanh của chúng tôi để nắm được cách triển khai khung SAIF:

  • Bước 1 – Hiểu mục đích sử dụng
    • Việc hiểu được vấn đề kinh doanh cụ thể mà AI xử lý và dữ liệu cần có để huấn luyện mô hình sẽ góp phần thúc đẩy các chính sách, giao thức và chế độ kiểm soát cần được triển khai trong SAIF.
  • Bước 2 – Tập hợp đội ngũ
    • Việc phát triển và triển khai hệ thống AI là một nỗ lực đòi hỏi sự phối hợp của nhiều bộ phận, cũng tương tự như những hệ thống thông thường.
    • Các hệ thống AI thường phức tạp và khó hiểu, mang số lượng lớn những yếu tố đầy biến động, cần đến một lượng dữ liệu khổng lồ và tiêu tốn nhiều tài nguyên. Hơn nữa, chúng có thể được sử dụng trong quá trình đánh giá để ra quyết định, cũng như có thể tạo ra nội dung mới có nguy cơ gây phản cảm, có hại hoặc lưu truyền định kiến và thiên kiến xã hội.
    • Hãy hình thành các nhóm đa chức năng phù hợp để đảm bảo rằng các yếu tố về bảo mật, quyền riêng tư, rủi ro và tuân thủ được xem xét ngay từ đầu.
  • Bước 3 – Nắm rõ kiến thức cơ bản về AI
    • Khi các nhóm bắt đầu đánh giá việc sử dụng AI trong doanh nghiệp, họ sẽ gặp phải các vấn đề phức tạp, rủi ro và các biện pháp bảo mật hiện hành. Những yếu tố này rất đa dạng và liên tục phát triển. Do vậy, các bên có liên quan nhất thiết phải nắm được kiến thức cơ bản về vòng đời phát triển mô hình AI cũng như thiết kế và logic của hệ phương pháp lập mô hình, gồm cả các tính năng, ưu điểm và hạn chế.
  • Bước 4 – Áp dụng 6 yếu tố cốt lõi của SAIF (trình bày ở trên)
    • Những yếu tố này không nhất thiết phải được áp dụng theo trình tự thời gian.

Tôi có thể tìm thêm thông tin về SAIF ở đâu và làm thế nào để áp dụng SAIF cho doanh nghiệp hoặc tổ chức của tôi?

Hãy tiếp tục theo dõi! Google không ngừng xây dựng và chia sẻ các nguồn tài nguyên, tài liệu hướng dẫn và công cụ liên quan đến Khung AI bảo mật, cùng với các phương pháp hay nhất khác về việc phát triển hoạt động ứng dụng AI.

Vì sao chúng tôi hỗ trợ việc xây dựng một cộng đồng AI bảo mật cho mọi người

Là một trong những công ty đầu tiên đưa ra Nguyên tắc về Al, chúng tôi đã thiết lập tiêu chuẩn về việc phát triển Al có trách nhiệm. Đây chính là kim chỉ nam giúp đảm bảo an toàn cho quy trình phát triển sản phẩm của Google. Chúng tôi ủng hộ và đã từng bước phát triển các khung tiêu chí cho toàn ngành nhằm nâng tầm tiêu chuẩn bảo mật, đồng thời chúng tôi cũng nhận thấy rằng nhất thiết phải xây dựng một cộng đồng thúc đẩy hoạt động này nếu muốn thành công lâu dài. Đó là lý do khiến chúng tôi vui mừng khi được xây dựng một cộng đồng SAIF cho tất cả các bên.

Những tiến bộ về an ninh mạng

Tìm hiểu về cách chúng tôi bảo vệ an toàn cho nhiều người trên mạng hơn bất cứ đơn vị nào trên thế giới.