Rangka Kerja AI Selamat Google (SAIF)
Potensi AI, terutamanya AI generatif, adalah amat besar. Apabila inovasi semakin berkembang, industri memerlukan standard keselamatan untuk membangunkan dan menggunakan AI secara bertanggungjawab. Oleh hal yang demikian, kami memperkenalkan Rangka Kerja AI Selamat (SAIF), rangka kerja konsep untuk melindungi sistem AI.
SAIF direka bentuk untuk menangani kebimbangan yang terlintas dahulu di fikiran untuk profesional keselamatan, seperti pengurusan risiko model AI/ML, keselamatan dan privasi — memastikan bahawa apabila model AI dilaksanakan, model itu selamat secara lalai.
Kami teruja untuk berkongsi langkah pertama dalam perjalanan kami untuk membina ekosistem SAIF merentas kerajaan, perniagaan dan organisasi untuk memajukan rangka kerja bagi penggunaan AI selamat yang berfungsi untuk semua.
Memperkenalkan SAIF kepada kerajaan dan organisasi
Kami bekerjasama dengan kerajaan dan organisasi untuk mengurangkan risiko keselamatan AI. Kerjasama kami dengan penggubal dasar dan organisasi standard, seperti NIST, menyumbang kepada rangka kerja kawal selia yang semakin berkembang. Baru-baru ini, kami membuat sorotan tentang peranan SAIF untuk melindungi sistem AI, sejajar dengan Komitmen AI Rumah Putih.
Mengembangkan SAIF bersama sekutu industri
Kami memupuk sokongan industri terhadap SAIF bersama rakan kongsi dan pelanggan, menganjurkan bengkel SAIF dengan pengamal dan menerbitkan amalan terbaik keselamatan AI. Kami bekerjasama dengan Deloitte untuk menghasilkan kertas putih tentang cara organisasi dapat menggunakan AI untuk menangani cabaran keselamatan.
-
Android: Garis Panduan Pembangunan Selamat
Lindungi organisasi anda dengan amaran kerentanan masa nyata Android dan ikut garis panduan pembangunan selamat untuk kod ML.
Apakah perkaitan antara SAIF dengan AI Bertanggungjawab?
Google mempunyai keperluan untuk membina AI secara bertanggungjawab, dan memperkasakan orang lain untuk melakukan perkara yang sama. Prinsip AI kami, yang diterbitkan pada tahun 2018, menerangkan komitmen kami untuk membangunkan teknologi secara bertanggungjawab dan dibina untuk keselamatan, mendayakan akauntabiliti dan mendukung standard kecemerlangan saintifik yang tinggi. AI Bertanggungjawab ialah pendekatan menyeluruh kami yang mengandungi beberapa dimensi seperti ‘Keadilan’, ‘Kebolehtafsiran’, ‘Keselamatan’ dan ‘Privasi’ sebagai panduan kepada semua pembangunan produk AI Google.
SAIF ialah rangka kerja kami untuk mewujudkan pendekatan standard dan holistik untuk menyepadukan langkah keselamatan dan privasi dengan aplikasi dikuasakan ML. Hal ini sejajar dengan dimensi ‘Keselamatan’ dan ‘Privasi’ untuk membangunkan AI secara bertanggungjawab. SAIF memastikan bahawa aplikasi dikuasakan ML dibangunkan secara bertanggungjawab, dengan mengambil kira landskap ancaman dan jangkaan pengguna yang semakin meningkat.
Bagaimanakah Google memanfaatkan SAIF?
Google mempunyai sejarah panjang yang mendorong pembangunan AI bertanggungjawab dan keselamatan siber serta kami telah memetakan amalan terbaik keselamatan kepada inovasi AI baharu selama bertahun-tahun. Rangka Kerja AI Selamat kami disaring daripada pengalaman luas dan amalan terbaik yang telah kami bangunkan dan laksanakan serta mencerminkan pendekatan Google untuk membina apl dikuasakan ML dan AI generatif, dengan perlindungan yang responsif, mampan dan boleh diskalakan untuk keselamatan dan privasi. Kami akan terus mengembangkan dan membina SAIF untuk menangani risiko baharu, landskap yang berubah-ubah dan kemajuan AI.
Bagaimanakah pengamal boleh melaksanakan rangka kerja itu?
Lihat panduan ringkas kami untuk melaksanakan rangka kerja SAIF:
-
Langkah 1 - Fahami penggunaan
- Memahami masalah perniagaan tertentu yang akan diselesaikan oleh AI dan data yang diperlukan untuk melatih model, akan membantu untuk mendorong dasar, protokol dan kawalan yang perlu dilaksanakan sebagai sebahagian daripada SAIF.
-
Langkah 2 - Kumpulkan pasukan
- Membangunkan dan menggunakan sistem AI, sama seperti sistem tradisional, adalah usaha pelbagai disiplin.
- Sistem AI biasanya rumit dan sukar difahami, mengandungi sejumlah besar bahagian yang bergerak, bergantung pada sejumlah besar data, intensif sumber, boleh digunakan untuk membuat keputusan berdasarkan pertimbangan dan boleh menjana kandungan baharu yang boleh menyinggung perasaan, berbahaya atau mengekalkan stereotaip dan kecenderungan sosial.
- Wujudkan pasukan rentas fungsi yang betul untuk memastikan bahawa pertimbangan keselamatan, privasi, risiko dan pematuhan disertakan dari awal.
-
Langkah 3 - Tahap ditetapkan dengan primer AI
- Apabila pasukan memulakan penilaian untuk penggunaan perniagaan, kerumitan yang pelbagai dan semakin berkembang serta risiko dan kawalan keselamatan yang digunakan - pihak yang terlibat perlu memahami asas kitaran hayat pembangunan model AI, reka bentuk dan logik metodologi model, termasuk keupayaan, merit dan pengehadan.
-
Langkah 4 - Gunakan enam elemen teras SAIF (disenaraikan di atas)
- Elemen ini tidak perlu digunakan dalam susunan kronologi.
Di manakah saya boleh mendapatkan maklumat lanjut tentang SAIF dan bagaimanakah cara menggunakan SAIF pada perniagaan atau entiti saya?
Harap bersabar! Google akan terus membangunkan dan berkongsi sumber, panduan dan alatan Rangka Kerja AI Selamat, bersama-sama amalan terbaik lain dalam pembangunan aplikasi AI.
Sebagai salah satu syarikat pertama yang menjelaskan prinsip Al, kami telah menetapkan standard untuk Al bertanggungjawab. Standard ini memberikan panduan tentang keselamatan untuk pembangunan produk kami. Kami telah menyokong dan membangunkan rangka kerja industri untuk meningkatkan bar keselamatan dan sedar bahawa pembinaan komuniti untuk memastikan kesinambungan kerja tersebut adalah penting untuk mencapai kejayaan dalam jangka masa panjang. Itulah sebabnya kami teruja untuk membina komuniti SAIF untuk semua orang.