Google'ın Güvenli Yapay Zeka Çerçevesi (SAIF)
Yapay zeka, özellikle de üretken yapay zeka muazzam bir potansiyele sahip. Yapay zeka alanındaki yeni ilerlemeler, sektörde yapay zekayı sorumlu bir şekilde geliştirmek ve dağıtmak için güvenlik standartlarının belirlenmesi ihtiyacını doğurdu. Bu nedenle, güvenli yapay zeka sistemleriyle ilgili kavramsal bir çerçeve olan Güvenli Yapay Zeka Çerçevesi'ni (SAIF) kullanıma sunduk.
SAIF, güvenlik uzmanlarının en önemli endişelerini (örneğin yapay zeka/makine öğrenimi modeliyle ilgili risk yönetimi, güvenlik ve gizlilik) gidermek üzere tasarlanmıştır. Kullanılan yapay zeka modellerinin varsayılan olarak güvenli olmasının sağlanmasına yardımcı olur.
Herkesin yararlanabileceği güvenli bir yapay zeka dağıtım çerçevesi oluşturmak için kamu kurumlarını, işletmeleri ve kuruluşları kapsayan bir SAIF ekosistemi geliştirme yolculuğumuzun ilk adımlarını paylaşmaktan memnuniyet duyuyoruz.
SAIF çerçevesini kamu kurumlarının ve kuruluşların kullanımına sunma
Yapay zeka ile ilgili güvenlik risklerini azaltmak için kamu kurumlarıyla ve kuruluşlarla birlikte çalışıyoruz. Karar mercileri ve standartları belirleyen kuruluşlarla (ör. NIST) yaptığımız çalışmalar, sürekli değişen yönetmelik çerçevelerine katkıda bulunuyor.
Sektördeki iş ortaklarıyla SAIF çerçevesini geliştirme
SAIF için sektördeki iş ortaklarından ve müşterilerden destek alıyoruz. Uzmanlarla SAIF atölyeleri düzenliyor ve yapay zeka güvenliği ile ilgili en iyi uygulamaları yayınlıyoruz. Deloitte işbirliğiyle hazırladığımız teknik belgede, kuruluşların güvenlik sorunlarını gidermek için yapay zekadan nasıl yararlanabileceğini açıkladık.
-
Android: Güvenli Geliştirme Yönergeleri
Android'in anlık güvenlik açığı uyarıları ile kuruluşunuzun güvenliğini sağlayın ve makine öğrenimi kodu için güvenli geliştirme yönergelerine uyun.
SAIF ile Sorumlu Yapay Zeka arasında nasıl bir bağlantı var?
Yapay zekayı sorumluluk bilinciyle geliştirmek ve başkalarını da bu konuda desteklemek Google'ın görevidir. 2018'de yayınlanan Yapay Zeka İlkelerimizde, teknolojiyi güvenli, güvenilir ve yüksek bilimsel standartlarda olacak şekilde sorumluluk bilinciyle geliştirme taahhüdümüz açıklanmaktadır. Sorumlu Yapay Zeka, yapay zekaya dayalı ürün geliştirme sürecimizi yönlendiren ve "Adillik", "Yorumlanabilirlik", "Güvenlik", "Gizlilik" gibi çeşitli boyutlardan oluşan kapsayıcı yaklaşımımızdır.
SAIF, makine öğrenimi destekli uygulamalara güvenlik ve gizlilik önlemlerini entegre ederken kullandığımız standardize ve bütüncül yaklaşım çerçevesidir. Bu çerçeve, yapay zekayı sorumluluk bilinciyle geliştirmenin "Güvenlik" ve "Gizlilik" boyutlarıyla uyumludur. SAIF, makine öğrenimi destekli uygulamaların, sürekli değişen tehditler ve kullanıcı beklentileri dikkate alınarak sorumlu bir şekilde geliştirilmesini sağlar.
Google, SAIF çerçevesini nasıl uyguluyor?
Yapay zekayı ve siber güvenliği sorumluluk bilinciyle geliştirme sürecine uzun zamandır yön veren Google, güvenlikle ilgili en iyi uygulamaları yıllardır yeni yapay zeka inovasyonlarında kullanmaktadır. Güvenli Yapay Zeka Çerçevemiz, engin deneyimimiz ile geliştirip kullandığımız en iyi uygulamalar temel alınarak oluşturulmuştur. Bu çerçeve, Google'ın makine öğrenimi ve üretken yapay zeka destekli uygulamaları geliştirirken güvenlik ve gizlilik için duyarlı, sürdürülebilir ve ölçeklenebilir koruma özellikleri kullanma yaklaşımını yansıtır. SAIF çerçevesini, yapay zeka alanındaki gelişmelere, yeni risklere ve değişen koşullara uygun olarak değiştirip geliştirmeye devam edeceğiz.
Uzmanlar çerçeveyi nasıl uygulayabilir?
SAIF çerçevesini uygulama ile ilgili kısa rehberimize göz atın:
-
1. adım: Kullanım alanları hakkında bilgi edinin
- Yapay zekanın işle ilgili hangi sorunun çözümünde kullanılacağını ve modeli eğitmek için gereken verileri anlamak, SAIF kapsamında uygulanması gereken politika, protokol ve kontrollerin yönlendirilmesine yardımcı olur.
-
2. adım: Ekibinizi kurun
- Tıpkı geleneksel sistemler gibi yapay zeka sistemlerini geliştirmek ve dağıtmak için de farklı departmanların çalışması gerekir.
- Yapay zeka sistemleri genellikle anlaşılması zor ve karmaşıktır; pek çok değişkenin etkileşimine dayanır; önemli miktarda veriye gerek duyar; çok fazla kaynak kullanır; yargılardan yola çıkılarak alınan kararları uygulamak için kullanılabilir; ve rahatsız edici veya zararlı olabilecek yeni içerikler oluşturabilir ya da klişe düşünceleri ve toplumsal önyargıları destekleyebilir.
- Güvenlik, gizlilik, risk ve uyumlulukla ilgili önemli noktaların baştan dikkate alınmasını sağlamak için farklı departmanlardaki çalışanlarla doğru ekibi kurun.
-
3. adım: Ekibinizin yapay zeka hakkında temel bilgileri öğrenmesini sağlayın
- Ekipler işteki kullanım alanını, sürekli değişen çeşitli karmaşıklıkları, riskleri ve güvenlik kontrollerini değerlendirmeye başlarken ilgili tarafların, yapay zeka modeli geliştirme yaşam döngüsünün temellerini, ayrıca özellikler, faydalar ve sınırlamalar da dahil olmak üzere model metodolojilerinin tasarımını ve mantığını anlaması son derece önemlidir.
-
4. adım: SAIF çerçevesinin yukarıda belirtilen altı temel öğesini uygulayın
- Bu öğelerin kronolojik sırayla uygulanması gerekmez.
SAIF hakkında daha fazla bilgiyi nerede bulabilirim ve bu çerçeveyi işletmeme veya kuruluşuma nasıl uygulayabilirim?
Gelişmeler için bizi takip etmeye devam edin. Google, Güvenli Yapay Zeka Çerçevesi hakkındaki kaynaklar, rehberler ve araçlar hazırlayıp paylaşmaya devam edecek. Bunların yanında yapay zeka uygulaması geliştirmeyle ilgili en iyi uygulamaları da paylaşacağız.
Yapay zeka ilkelerini dile getiren ilk şirketlerden biri olarak belirlediğimiz sorumlu yapay zeka standardını, güvenli ürün geliştirme sürecimizde rehber olarak kullanıyoruz. Güvenlik çıtasını yükseltmeye yönelik sektör çerçevelerini destekledik ve geliştirdik. Uzun vadede başarıya ulaşmak için çalışmaları üst noktaya taşıyacak bir topluluk oluşturmanın şart olduğunu öğrendik. Bu nedenle, herkese açık bir SAIF topluluğu oluşturmaktan memnuniyet duyuyoruz.