"إطار عمل الذكاء الاصطناعي الآمن" (SAIF) من Google
تتميّز أنظمة الذكاء الاصطناعي، وخصوصًا الذكاء الاصطناعي التوليدي، بإمكانيات هائلة. ومع تواصل الابتكارات في المجال، تظهر الحاجة إلى وضع معايير أمنية لتطوير أنظمة الذكاء الاصطناعي ودمجها بشكل مسؤول. ولهذا السبب، أطلقنا "إطار عمل الذكاء الاصطناعي الآمن" (SAIF)، وهو يوضّح المفاهيم الأساسية لجعل أنظمة الذكاء الاصطناعي آمنة.
تم تصميم إطار SAIF لمعالجة أهم مخاوف خبراء الأمان، مثل إدارة المخاطر المرتبطة بنماذج الذكاء الاصطناعي أو تعلُّم الآلة وتعزيز أمانها وخصوصيتها. بالتالي، يساعد هذا الإطار في أن تكون نماذج الذكاء الاصطناعي آمنة تلقائيًا عند تطبيقها.
يسعدنا أن نعلن عن أولى خطواتنا في رحلة إنشاء وتطوير منظومة إطار SAIF المتكاملة في الهيئات الحكومية والأنشطة التجارية والمؤسسات بشكل يضمن للجميع الدمج الآمن لأنظمة الذكاء الاصطناعي.
تعريف الحكومات والمؤسسات بإطار SAIF
نحن نتعاون مع الحكومات والمؤسسات للمساعدة في الحدّ من المخاطر الأمنية المرتبطة بالذكاء الاصطناعي. ونعمل مع صانعي السياسات ومؤسسات وضع المعايير، مثل المعهد الوطني للمعايير والتكنولوجيا (NIST)، للمساهمة في تطوير أُطر عمل تنظيمية. لقد سلّطنا الضوء مؤخرًا على دور إطار SAIFالتزاماتنا المتعلقة بالذكاء الاصطناعي التي أعلن عنها "البيت الأبيض في جعل أنظمة . الذكاء الاصطناعي آمنة بما يتوافق مع"
تطبيق إطار SAIF على نطاق واسع بالتعاون مع الشركاء في المجال
نتعاون مع العملاء والشركاء لدعم جهود تنفيذ إطار SAIF في المجال، وننظّم ورش عمل مع الجهات التي تريد تنفيذ هذا الإطار، وننشر أفضل الممارسات المتعلقة بأمان الذكاء الاصطناعي. وقد تعاونّا مع شركة Deloitte لإصدار تقرير موجز يوضِّح الطريقة التي يمكن أن تستخدم بها المؤسسات الذكاء الاصطناعي لمواجهة التحدّيات الأمنية.
-
Android: إرشادات التطوير الآمن
عزِّز الأمان في مؤسستك من خلال تلقّي تنبيهات الثغرات الأمنية في الوقت الفعلي على Android، واتّباع إرشادات التطوير الآمن للتطبيقات التي تستخدم الرموز البرمجية لتعلُّم الآلة.
ما العلاقة بين إطار SAIF والذكاء الاصطناعي المسؤول؟
تحرص Google على تطوير تقنيات الذكاء الاصطناعي بمسؤولية ومساعدة الآخرين على السير على خطاها. وتوضِّح مبادئ الذكاء الاصطناعي، المنشورة في عام 2018، مدى التزامنا بتطوير التكنولوجيا بشكلٍ مسؤول وبطريقة تعزِّز الأمان وتسمح بالمساءلة وتستوفي المعايير العالية للتميُّز العلمي. فالذكاء الاصطناعي المسؤول هو نهجنا الشامل بجوانبه العديدة، مثل "العدالة" و"القابلية للتفسير" و"الأمان" و"الخصوصية"، ونعتمده عند تطوير كل منتجات Google المستنِدة إلى الذكاء الاصطناعي.
أمّا SAIF، فهو إطار طوّرناه من أجل وضع نهج موحَّد وشامل لدمج إجراءات الأمان والخصوصية في التطبيقات المستنِدة إلى تكنولوجيا تعلُّم الآلة. ويتّسق هذا الإطار مع جانبَي "الأمان" و"الخصوصية" اللذين نراعيهما عند تطوير الذكاء الاصطناعي بمسؤولية. يضمن ذلك الإطار أيضًا الالتزام بالتطوير المسؤول لجميع التطبيقات المستنِدة إلى تكنولوجيا تعلُّم الآلة، مع مراعاة التهديدات الناشئة أو توقعات المستخدمين المتغيّرة.
كيف تطبِّق Google إطار SAIF؟
لطالما ساهمت Google في تعزيز الذكاء الاصطناعي المسؤول وتطوير الأمن السيبراني، ووجّهت جهودها لسنوات عديدة إلى تحديد أفضل ممارسات الأمان المتعلقة بابتكارات الذكاء الاصطناعي الجديدة. واستنادًا إلى تجاربنا العديدة وأفضل الممارسات التي وضعناها ونفّذناها، طوّرنا "إطار عمل الذكاء الاصطناعي الآمن" (SAIF) كنهج تتّبِعه Google في إنشاء التطبيقات المستنِدة إلى تكنولوجيا تعلُّم الآلة والذكاء الاصطناعي التوليدي وتزويدها بوسائل سريعة الاستجابة ومستدامة وقابلة للتطوّر تعزيزًا للأمان والخصوصية. سنواصل جهودنا في تطوير إطار SAIF لمواكبة المخاطر الجديدة و آخر المتغيّرات وتطورات الذكاء الاصطناعي.
كيف يمكن للجهات المعنية تطبيق هذا الإطار؟
يُرجى الاطّلاع على الدليل السريع لتطبيق إطار SAIF:
-
الخطوة 1: فهم سبب الاستخدام
- عند تحديد مشاكل النشاط التجاري المطلوب من الذكاء الاصطناعي حلّها، وتحديد البيانات اللازمة لتدريب النموذج، يصبح من الأسهل تحديد السياسة والبروتوكولات وعناصر التحكّم اللازمة لتطبيق إطار SAIF.
-
الخطوة 2: تشكيل الفريق المتخصّص
- على غرار الأنظمة التقليدية، يتطلّب تطوير أنظمة الذكاء الاصطناعي ونشرها تعاوُن أفراد من مُختلف المجالات.
- عادةً ما تكون أنظمة الذكاء الاصطناعي معقّدة وغامضة، وتتطلب أعدادًا كبيرة من المكونات، وتعتمِد على حجم هائل من البيانات، وتتطلّب الكثير من الموارد. ويمكن استخدام هذه الأنظمة لاتّخاذ قرارات قائمة على تقييم شخصي، أو لإنشاء محتوى جديد قد يكون مسيئًا أو ضارًا أو يرسّخ صورًا نمطية وانحيازات اجتماعية.
- يجب من البداية تشكيل الفريق المناسب المتعدّد الوظائف لضمان مراعاة الاعتبارات المتعلقة بالأمان والخصوصية وإدارة المخاطر والامتثال للسياسات.
-
الخطوة 3: استخدام دليل الذكاء الاصطناعي لتعريف الجميع بالأساسيات
- حينما تبدأ فِرق الأنشطة التجارية في تقييم أغراض استخدام الذكاء الاصطناعي وكل ما ينشأ عنها من مخاطر وتعقيدات وعناصر تحكُّم في الأمان، من الضروري أن تتعرَّف جميع الأطراف المعنيّة على أساسيات مراحل تطوير نموذج الذكاء الاصطناعي وطُرق وضع المنهجيات المنطقية المناسبة، ومن بينها إمكانيات النموذج ومزاياه وقيوده.
-
الخطوة 4: تطبيق الأساسيات الستة التي يرتكز عليها إطار SAIF (المذكورة أعلاه)
- يمكن تطبيق هذه الأساسيات بدون ترتيب زمني محدَّد.
أين يمكنني العثور على مزيد من معلومات عن إطار SAIF وكيفية تطبيقه على نشاطي التجاري أو مؤسستي؟
يُرجى متابعة أخبارنا باستمرار. ستواصل Google إنشاء ومشاركة المراجِع والإرشادات والأدوات المتعلّقة بـ "إطار عمل الذكاء الاصطناعي الآمن"، وستقدّم أفضل الممارسات الأخرى المتعلقة بتطوير التطبيقات المستنِدة إلى الذكاء الاصطناعي.
كوننا إحدى أولى الشركات التي أعلنت عن مبادئ الذكاء الاصطناعي، وضعنا معايير الذكاء الاصطناعي المسؤول التي ستوجّه عملية تطوير منتجاتنا لتعزيز أمانها. وتتواصل جهودنا لدعم وتطوير أُطر عمل في هذا المجال سعيًا لتعزيز مستوى الأمان، وأدركنا أهمية إنشاء منتدى يركّز على هذه الجهود لتحقيق النجاح على المدى البعيد. لهذا السبب، يسعدنا إنشاء منتدى متاح للجميع حول إطار SAIF.