Framework Keamanan AI (SAIF) Google
AI, khususnya AI generatif, memiliki potensi yang sangat besar. Seiring dengan kemajuan inovasi, industri membutuhkan standar keamanan untuk membangun dan men-deploy AI secara bertanggung jawab. Karena itulah kami memperkenalkan Framework Keamanan AI (Secure AI Framework, SAIF), yaitu framework konseptual untuk mengamankan sistem AI.
SAIF dirancang untuk mengatasi kekhawatiran utama profesional keamanan, seperti pengelolaan risiko model AI/ML, keamanan, dan privasi. SAIF membantu memastikan bahwa model AI telah aman secara default ketika diimplementasikan.
Kami senang dapat membagikan langkah awal perjalanan kami dalam membangun ekosistem SAIF bagi pemerintah, bisnis, dan organisasi untuk memajukan framework pengembangan AI yang aman bagi semua orang.
Menghadirkan SAIF bagi pemerintah dan organisasi
Kami berkolaborasi dengan berbagai organisasi dan institusi pemerintah untuk membantu memitigasi risiko keamanan AI. Hasil kerja kami dengan pembuat kebijakan dan organisasi penyusun standar, seperti NIST, berkontribusi untuk mengembangkan kerangka peraturan. Baru-baru ini, kami menyoroti peran SAIF dalam mengamankan sistem AI, yang selaras dengan komitmen AI Gedung Putih.
Memperluas SAIF ke pemangku kepentingan industri
Kami memberikan dukungan terkait SAIF untuk partner dan pelanggan, menyelenggarakan workshop SAIF dengan melibatkan para praktisi, dan memublikasikan praktik terbaik keamanan AI. Kami bekerja sama dengan Deloitte dalam pembuatan laporan resmi tentang cara organisasi dapat menggunakan AI untuk mengatasi tantangan keamanan.
-
Android: Panduan Pengembangan yang Aman
Amankan organisasi Anda dengan peringatan kerentanan real-time Android dan ikuti panduan pengembangan yang aman untuk kode ML.
Apa kaitan antara SAIF dan Responsible AI?
Google telah berkomitmen untuk membangun AI secara bertanggung jawab dan mendukung berbagai pihak untuk melakukan hal yang sama. Prinsip AI, yang dipublikasikan pada tahun 2018, memaparkan komitmen kami untuk mengembangkan teknologi secara bertanggung jawab dan melalui prosedur yang memprioritaskan keamanan, mendorong akuntabilitas, dan menjunjung tinggi standar keunggulan ilmiah. Responsible AI adalah pendekatan menyeluruh kami yang mencakup sejumlah dimensi seperti ‘Keadilan’, ‘Penafsiran’, ‘Keamanan’, dan ‘Privasi’ yang memandu semua pengembangan produk AI Google.
SAIF adalah framework yang kami gunakan untuk membuat pendekatan terstandardisasi dan holistik untuk mengintegrasikan prosedur keamanan dan privasi ke dalam aplikasi yang didukung ML. SAIF selaras dengan dimensi ‘Keamanan’ dan ‘Privasi’ dalam pendekatan kami untuk mengembangkan AI secara bertanggung jawab. SAIF memastikan bahwa aplikasi yang didukung ML dikembangkan secara bertanggung jawab dengan mempertimbangkan berbagai ancaman yang berkembang dan ekspektasi pengguna.
Bagaimana cara Google menerapkan SAIF?
Google memiliki sejarah panjang dalam mendorong pengembangan responsible AI dan pengamanan cyber. Kami juga telah memetakan praktik terbaik keamanan ke dalam inovasi AI baru selama bertahun-tahun. Framework Keamanan AI dikembangkan berdasarkan akumulasi pengalaman dan praktik terbaik yang telah kami kembangkan dan terapkan. Framework ini juga mencerminkan pendekatan Google dalam mengembangkan ML dan aplikasi yang didukung AI generasi berikutnya, dengan perlindungan yang responsif, berkelanjutan, dan skalabel untuk menjaga keamanan dan privasi. Kami akan terus mengembangkan dan membangun SAIF untuk mengatasi berbagai risiko baru, perubahan kondisi, dan kemajuan dalam AI.
Bagaimana cara praktisi menerapkan framework ini?
Lihat panduan cepat kami untuk menerapkan framework SAIF:
-
Langkah 1 - Pahami penggunaannya
- Memahami masalah bisnis tertentu yang akan dipecahkan AI dan data yang diperlukan untuk melatih model akan membantu meningkatkan kualitas kebijakan, protokol, dan kontrol yang perlu diterapkan sebagai bagian dari SAIF.
-
Langkah 2 - Bentuk tim
- Sama seperti sistem tradisional, mengembangkan dan men-deploy sistem AI membutuhkan upaya multidisiplin.
- Sistem AI sering kali rumit dan sulit dipahami, bergantung pada data dalam jumlah besar, dan membutuhkan banyak sumber daya. Sistem AI juga dapat digunakan untuk menerapkan keputusan berbasis interpretasi dan dapat menghasilkan konten baru yang mungkin menyinggung, berbahaya, atau dapat melanggengkan stereotip dan bias sosial.
- Bentuk tim lintas fungsi yang tepat untuk memastikan aspek keamanan, privasi, risiko, and kepatuhan telah dipertimbangkan sejak awal.
-
Langkah 3 - Samakan pehamanan dasar tentang AI
- Saat tim mulai mengevaluasi penggunaan bisnis, mereka akan menghadapi kompleksitas, risiko, dan kontrol keamanan yang berlaku. Faktor-faktor ini sangat beragam dan terus berkembang. Penting bagi semua pihak yang terlibat untuk memahami dasar-dasar siklus pengembangan model AI, desain dan logika metodologi model, termasuk kemampuan, manfaat, dan batasannya.
-
Langkah 4 - Terapkan enam elemen inti SAIF (tercantum di atas)
- Elemen ini tidak dimaksudkan untuk diterapkan secara berurutan.
Di mana saya dapat menemukan informasi lebih lanjut tentang SAIF dan cara menerapkannya ke bisnis atau organisasi saya?
Nantikan kabar terbarunya. Google akan terus membangun dan membagikan referensi, panduan, dan alat Framework Keamanan AI, beserta praktik terbaik lainnya dalam pengembangan aplikasi AI.
Sebagai salah satu perusahaan pertama yang mengembangkan prinsip AI, kami telah menetapkan standar untuk responsible Al. Standar ini memandu kami mengembangkan produk dengan aman. Kami telah mendukung dan mengembangkan framework industri untuk meningkatkan standar keamanan. Kami juga memahami pentingnya membangun komunitas untuk mendukung keberhasilan upaya ini dalam jangka panjang. Itulah sebabnya kami ingin membangun komunitas SAIF bagi semua orang.