إطار عمل الذكاء الاصطناعي الآمن من Google
(SAIF)
تتميّز أنظمة الذكاء الاصطناعي، وخصوصًا الذكاء الاصطناعي التوليدي، بإمكانيات هائلة. ومع تواصل الابتكارات في المجال، تظهر الحاجة إلى وضع معايير أمنية لتطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول. لهذا السبب، أطلقنا "إطار عمل الذكاء الاصطناعي الآمن" (SAIF) الذي يوضّح المفاهيم الأساسية لتأمين أنظمة الذكاء الاصطناعي.
عناصر SAIF الأساسية الستة
-
توسيع نطاق الأسس الأمنية القوية لتشمل أنظمة الذكاء الاصطناعي
-
تطوير قدرة المؤسسات على رصد المخاطر الأمنية التي تهدد أنظمة الذكاء الاصطناعي والتصدّي لها
-
استخدام وسائل حماية آلية لمعالجة التهديدات الحالية والجديدة
-
تنسيق إجراءات التحكّم والحماية بين مختلف المنصّات التي تستخدمها المؤسسة لضمان اتساق أساليب الأمان
-
وضع تدابير احترازية للحدّ من المخاطر وتسريع حلقات الملاحظات عند استخدام أنظمة الذكاء الاصطناعي
-
نقيّم مخاطر استخدام الذكاء الاصطناعي في سياق العمليات التجارية
نحو منظومة متكاملة أكثر أمانًا
مراجِع إضافية
الأسئلة الشائعة
حول إطار SAIF
لطالما ساهمت Google في تعزيز الذكاء الاصطناعي المسؤول وتطوير الأمن السيبراني، ووجّهت جهودها لسنوات عديدة إلى تحديد أفضل ممارسات الأمان المتعلقة بابتكارات الذكاء الاصطناعي. واستنادًا إلى تجاربنا العديدة وأفضل الممارسات التي وضعناها ونفّذناها، طوّرنا "إطار عمل الذكاء الاصطناعي الآمن" كنهج تتّبِعه Google في إنشاء التطبيقات المستنِدة إلى تكنولوجيا تعلُّم الآلة والذكاء الاصطناعي التوليدي وتزويدها بوسائل سريعة الاستجابة ومستدامة وقابلة للتطوّر لتعزيز الأمان والخصوصية. سنواصل جهودنا في إنشاء وتطوير إطار عمل SAIF لمواكبة المخاطر الجديدة وآخر المتغيّرات والتطورات في مجال الذكاء الاصطناعي.
يُرجى الاطّلاع على الدليل السريع لتطبيق إطار عمل SAIF:
- الخطوة 1: فهم سبب الاستخدام
- عند تحديد مشاكل الأعمال التجارية المطلوب من الذكاء الاصطناعي حلّها، وتحديد البيانات اللازمة لتدريب النموذج، يصبح من الأسهل تحديد السياسة والبروتوكولات والضوابط اللازمة لتطبيق إطار عمل SAIF.
- الخطوة 2: تشكيل الفريق المتخصّص
- على غرار الأنظمة التقليدية، يتطلّب تطوير أنظمة الذكاء الاصطناعي ونشرها تعاوُن أفراد من مُختلف المجالات.
- عادةً ما تكون أنظمة الذكاء الاصطناعي معقّدة وغامضة، وتتضمّن أعدادًا كبيرة من المكونات، وتعتمد على حجم هائل من البيانات، وتتطلّب الكثير من الموارد. يمكن استخدام هذه الأنظمة لاتّخاذ قرارات تستند إلى تقييم شخصي، أو لإنشاء محتوى جديد قد يكون مسيئًا أو ضارًا أو يرسّخ صورًا نمطية وانحيازات اجتماعية.
- يجب من البداية إنشاء فريق مناسب متعدد المهارات لضمان مراعاة الاعتبارات المتعلقة بالأمان والخصوصية وإدارة المخاطر والامتثال للسياسات.
-
الخطوة 3: استخدام دليل الذكاء الاصطناعي لتعريف الجميع بالأساسيات
- عندما تبدأ الفِرق في تقييم أغراض الاستخدام التجاري للذكاء الاصطناعي وكل ما ينشأ عنه من مخاطر وتعقيدات وضوابط أمان، من الضروري أن تتعرَّف جميع الأطراف المعنيّة على أساسيات مراحل تطوير نموذج الذكاء الاصطناعي ، وطُرق وضع المنهجيات المنطقية المناسبة، بما في ذلك إمكانيات النموذج ومزاياه وقيوده.
-
الخطوة 4: تطبيق العناصر الأساسية الستة التي يرتكز عليها SAIF
- يمكن تطبيق هذه العناصر بدون ترتيب زمني محدَّد.
يُرجى متابعة أخبارنا باستمرار. ستواصل Google إنشاء ومشاركة المراجِع والإرشادات والأدوات المتعلقة بـ "إطار عمل الذكاء الاصطناعي الآمن"، وستقدّم أفضل الممارسات الأخرى المتعلقة بتطوير التطبيقات المستنِدة إلى الذكاء الاصطناعي.