Pada Bulan Kesadaran Keamanan Siber ini, pelajari cara Google membuat proses login menjadi mudah dan aman di berbagai perangkat dan layanan online yang Anda gunakan.

Framework Keamanan AI (SAIF)
Google

AI, khususnya AI generatif, memiliki potensi yang sangat besar. Seiring dengan kemajuan inovasi, industri membutuhkan standar keamanan untuk membangun dan men-deploy AI secara bertanggung jawab. Karena itulah kami memperkenalkan Framework Keamanan AI (Secure AI Framework, SAIF), yaitu framework konseptual untuk mengamankan sistem AI.

Enam elemen inti SAIF

SAIF dirancang untuk mengatasi kekhawatiran utama profesional keamanan, seperti pengelolaan risiko model AI/ML, keamanan, dan privasi. SAIF membantu memastikan bahwa model AI telah aman secara default ketika diimplementasikan.

Memperluas pondasi keamanan yang kuat ke ekosistem AI
Memperluas deteksi dan respons terhadap ancaman dengan menghadirkan AI ke sistem pertahanan organisasi
Mengotomatiskan pertahanan untuk mengimbangi ancaman baru dan yang sudah ada
Menyelaraskan kontrol level platform untuk memastikan keamanan yang konsisten di seluruh organisasi
Menyesuaikan kontrol untuk kebutuhan mitigasi dan mempercepat feedback loop untuk deployment AI
Memahami risiko sistem AI dalam konteks proses bisnis
Download PDF
Mewujudkan ekosistem
yang lebih aman

Kami senang dapat membagikan langkah awal perjalanan kami dalam membangun ekosistem SAIF bagi pemerintah, bisnis, dan organisasi untuk memajukan framework pengembangan AI yang aman bagi semua orang.

Menghadirkan SAIF bagi pemerintah dan organisasi

Kami berkolaborasi dengan berbagai organisasi dan institusi pemerintah untuk membantu memitigasi risiko keamanan AI. Hasil kerja kami dengan pembuat kebijakan dan organisasi penyusun standar, seperti NIST, berkontribusi untuk mengembangkan kerangka peraturan. Baru-baru ini, kami menyoroti peran SAIF dalam mengamankan sistem AI, yang selaras dengan komitmen AI Gedung Putih.

Memperluas SAIF ke pemangku kepentingan industri

Kami memberikan dukungan terkait SAIF untuk partner dan pelanggan, menyelenggarakan workshop SAIF dengan melibatkan para praktisi, dan memublikasikan praktik terbaik keamanan AI. Kami bekerja sama dengan Deloitte dalam pembuatan laporan resmi tentang cara organisasi dapat menggunakan AI untuk mengatasi tantangan keamanan.

Referensi Tambahan
Pertanyaan Umum tentang SAIF

Apa kaitan antara SAIF dan Responsible AI?

Google telah berkomitmen untuk membangun AI secara bertanggung jawab dan mendukung berbagai pihak untuk melakukan hal yang sama. Prinsip AI, yang dipublikasikan pada tahun 2018, memaparkan komitmen kami untuk mengembangkan teknologi secara bertanggung jawab dan melalui prosedur yang memprioritaskan keamanan, mendorong akuntabilitas, dan menjunjung tinggi standar keunggulan ilmiah. Responsible AI adalah pendekatan menyeluruh kami yang mencakup sejumlah dimensi seperti ‘Keadilan’, ‘Penafsiran’, ‘Keamanan’, dan ‘Privasi’ yang memandu semua pengembangan produk AI Google.

SAIF adalah framework yang kami gunakan untuk membuat pendekatan terstandardisasi dan holistik untuk mengintegrasikan prosedur keamanan dan privasi ke dalam aplikasi yang didukung ML. SAIF selaras dengan dimensi ‘Keamanan’ dan ‘Privasi’ dalam pendekatan kami untuk mengembangkan AI secara bertanggung jawab. SAIF memastikan bahwa aplikasi yang didukung ML dikembangkan secara bertanggung jawab dengan mempertimbangkan berbagai ancaman yang berkembang dan ekspektasi pengguna.

Bagaimana cara Google menerapkan SAIF?

Google memiliki sejarah panjang dalam mendorong pengembangan responsible AI dan pengamanan cyber. Kami juga telah memetakan praktik terbaik keamanan ke dalam inovasi AI baru selama bertahun-tahun. Framework Keamanan AI dikembangkan berdasarkan akumulasi pengalaman dan praktik terbaik yang telah kami kembangkan dan terapkan. Framework ini juga mencerminkan pendekatan Google dalam mengembangkan ML dan aplikasi yang didukung AI generasi berikutnya, dengan perlindungan yang responsif, berkelanjutan, dan skalabel untuk menjaga keamanan dan privasi. Kami akan terus mengembangkan dan membangun SAIF untuk mengatasi berbagai risiko baru, perubahan kondisi, dan kemajuan dalam AI.

Bagaimana cara praktisi menerapkan framework ini?

Lihat panduan cepat kami untuk menerapkan framework SAIF:

  • Langkah 1 - Pahami penggunaannya
    • Memahami masalah bisnis tertentu yang akan dipecahkan AI dan data yang diperlukan untuk melatih model akan membantu meningkatkan kualitas kebijakan, protokol, dan kontrol yang perlu diterapkan sebagai bagian dari SAIF.
  • Langkah 2 - Bentuk tim
    • Sama seperti sistem tradisional, mengembangkan dan men-deploy sistem AI membutuhkan upaya multidisiplin.
    • Sistem AI sering kali rumit dan sulit dipahami, bergantung pada data dalam jumlah besar, dan membutuhkan banyak sumber daya. Sistem AI juga dapat digunakan untuk menerapkan keputusan berbasis interpretasi dan dapat menghasilkan konten baru yang mungkin menyinggung, berbahaya, atau dapat melanggengkan stereotip dan bias sosial.
    • Bentuk tim lintas fungsi yang tepat untuk memastikan aspek keamanan, privasi, risiko, and kepatuhan telah dipertimbangkan sejak awal.
  • Langkah 3 - Samakan pehamanan dasar tentang AI
    • Saat tim mulai mengevaluasi penggunaan bisnis, mereka akan menghadapi kompleksitas, risiko, dan kontrol keamanan yang berlaku. Faktor-faktor ini sangat beragam dan terus berkembang. Penting bagi semua pihak yang terlibat untuk memahami dasar-dasar siklus pengembangan model AI, desain dan logika metodologi model, termasuk kemampuan, manfaat, dan batasannya.
  • Langkah 4 - Terapkan enam elemen inti SAIF (tercantum di atas)
    • Elemen ini tidak dimaksudkan untuk diterapkan secara berurutan.

Di mana saya dapat menemukan informasi lebih lanjut tentang SAIF dan cara menerapkannya ke bisnis atau organisasi saya?

Nantikan kabar terbarunya. Google akan terus membangun dan membagikan referensi, panduan, dan alat Framework Keamanan AI, beserta praktik terbaik lainnya dalam pengembangan aplikasi AI.

Alasan kami mendukung komunitas AI yang aman untuk semua orang

Sebagai salah satu perusahaan pertama yang mengembangkan prinsip AI, kami telah menetapkan standar untuk responsible Al. Standar ini memandu kami mengembangkan produk dengan aman. Kami telah mendukung dan mengembangkan framework industri untuk meningkatkan standar keamanan. Kami juga memahami pentingnya membangun komunitas untuk mendukung keberhasilan upaya ini dalam jangka panjang. Itulah sebabnya kami ingin membangun komunitas SAIF bagi semua orang.

Framework Keamanan AI