الانتقال إلى المحتوى

درع أزرق يتضمّن رمز G باللون الأبيض

إطار عمل الذكاء الاصطناعي الآمن من Google‏ (SAIF)

تتميّز أنظمة الذكاء الاصطناعي، وخصوصًا الذكاء الاصطناعي التوليدي، بإمكانيات هائلة. ومع تواصل الابتكارات في المجال، تظهر الحاجة إلى وضع معايير أمنية لتطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول. لهذا السبب، أطلقنا "إطار عمل الذكاء الاصطناعي الآمن" (SAIF) الذي يوضّح المفاهيم الأساسية لتأمين أنظمة الذكاء الاصطناعي.

عناصر SAIF الأساسية الستة

تم تصميم إطار SAIF لمعالجة أهم مخاوف خبراء الأمان، مثل إدارة المخاطر المرتبطة بنماذج الذكاء الاصطناعي أو تعلُّم الآلة وتعزيز أمانها وخصوصيتها. بالتالي، يساعد هذا الإطار في أن تكون نماذج الذكاء الاصطناعي آمنة تلقائيًا عند تطبيقها.
  • توسيع نطاق الأسس الأمنية القوية لتشمل أنظمة الذكاء الاصطناعي

  • تطوير قدرة المؤسسات على رصد المخاطر الأمنية التي تهدد أنظمة الذكاء الاصطناعي والتصدّي لها

  • استخدام وسائل حماية آلية لمعالجة التهديدات الحالية والجديدة

  • تنسيق إجراءات التحكّم والحماية بين مختلف المنصّات التي تستخدمها المؤسسة لضمان اتساق أساليب الأمان

  • وضع تدابير احترازية للحدّ من المخاطر وتسريع حلقات الملاحظات عند استخدام أنظمة الذكاء الاصطناعي

  • نقيّم مخاطر استخدام الذكاء الاصطناعي في سياق العمليات التجارية

نحو منظومة متكاملة أكثر أمانًا

يسعدنا الإعلان عن أولى خطواتنا في مسيرتنا نحو تطوير إطار عمل SAIF في الهيئات الحكومية والشركات والمؤسسات بشكل يضمن للجميع الاستخدام الآمن لأنظمة الذكاء الاصطناعي.
صورة توضيحية تُظهر شبكة وردية ترسل طلبات إلى شاشة

نقدِّم لك SAIF.Google: أمان الذكاء الاصطناعي يبدأ من هنا

SAIF.Google هو مركز مرجعي يهدف إلى مساعدة خبراء الأمان في مواكبة التحديات الأمنية المستمرة التي تواجه أنظمة الذكاء الاصطناعي. يتيح لك هذا المركز التعرّف على مجموعة من المخاطر الأمنية المتعلّقة بالذكاء الاصطناعي والضوابط اللازمة لمواجهتها، ويشمل ذلك "تقرير التقييم الذاتي للمخاطر" الذي يساعد المتخصّصين في فهم المخاطر التي تؤثر في مؤسساتهم وكيفية التصدي لها باستخدام إطار عمل SAIF. تساعد هذه المراجِع في تلبية الحاجة الماسة إلى بناء وتطبيق أنظمة تستند إلى الذكاء الاصطناعي الآمن لمواكبة التطورات السريعة التي يشهدها هذا المجال.
صورة توضيحية لمجموعة نجمية يتوسطها درع أزرق يتوسّطه حرف G أبيض، وتحيط به رموز مثل: مبنى، وقِفل، وملف شخصي، وكرة أرضية، ومستند

‫SAIF للحكومات والمؤسسات

نحن نتعاون مع الحكومات والمؤسسات للحدّ من المخاطر الأمنية المرتبطة بالذكاء الاصطناعي. ونعمل مع صانعي السياسات ومؤسسات وضع المعايير، مثل "المعهد الوطني للمعايير والتكنولوجيا" (NIST) للمساهمة في تطوير أُطر عمل تنظيمية. لقد سلّطنا الضوء مؤخرًا على دور إطار SAIF في جعل أنظمة الذكاء الاصطناعي آمنة، بما يتوافق مع الالتزامات المتعلقة بالذكاء الاصطناعي التي أعلن عنها "البيت الأبيض".
دائرة تتضمّن شعارات لشركات تكنولوجيا

ائتلاف الذكاء الاصطناعي الآمن: معًا نحو تطبيق SAIF

نواصل العمل على تعزيز أمان الذكاء الاصطناعي وتطويره من خلال تأسيس ائتلاف الذكاء الاصطناعي الآمن (CoSAI)، بالتعاون مع شركات رائدة، مثل Anthropic وCisco وGenLab وIBM وIntel وNvidia وPayPal، للتعامل مع الصعوبات التي تواجه استخدام أنظمة الذكاء الاصطناعي الآمن.

مراجِع إضافية

الأسئلة الشائعة
حول إطار SAIF

كيف تطبِّق Google إطار عمل SAIF؟

لطالما ساهمت Google في تعزيز الذكاء الاصطناعي المسؤول وتطوير الأمن السيبراني، ووجّهت جهودها لسنوات عديدة إلى تحديد أفضل ممارسات الأمان المتعلقة بابتكارات الذكاء الاصطناعي. واستنادًا إلى تجاربنا العديدة وأفضل الممارسات التي وضعناها ونفّذناها، طوّرنا "إطار عمل الذكاء الاصطناعي الآمن" كنهج تتّبِعه Google في إنشاء التطبيقات المستنِدة إلى تكنولوجيا تعلُّم الآلة والذكاء الاصطناعي التوليدي وتزويدها بوسائل سريعة الاستجابة ومستدامة وقابلة للتطوّر لتعزيز الأمان والخصوصية. سنواصل جهودنا في إنشاء وتطوير إطار عمل SAIF لمواكبة المخاطر الجديدة وآخر المتغيّرات والتطورات في مجال الذكاء الاصطناعي.

كيف يمكن للجهات المعنيّة تطبيق إطار العمل هذا؟

يُرجى الاطّلاع على الدليل السريع لتطبيق إطار عمل SAIF:

  • الخطوة 1: فهم سبب الاستخدام
    • عند تحديد مشاكل الأعمال التجارية المطلوب من الذكاء الاصطناعي حلّها، وتحديد البيانات اللازمة لتدريب النموذج، يصبح من الأسهل تحديد السياسة والبروتوكولات والضوابط اللازمة لتطبيق إطار عمل SAIF.
  • الخطوة 2: تشكيل الفريق المتخصّص
    • على غرار الأنظمة التقليدية، يتطلّب تطوير أنظمة الذكاء الاصطناعي ونشرها تعاوُن أفراد من مُختلف المجالات.
    • عادةً ما تكون أنظمة الذكاء الاصطناعي معقّدة وغامضة، وتتضمّن أعدادًا كبيرة من المكونات، وتعتمد على حجم هائل من البيانات، وتتطلّب الكثير من الموارد. يمكن استخدام هذه الأنظمة لاتّخاذ قرارات تستند إلى تقييم شخصي، أو لإنشاء محتوى جديد قد يكون مسيئًا أو ضارًا أو يرسّخ صورًا نمطية وانحيازات اجتماعية.
    • يجب من البداية إنشاء فريق مناسب متعدد المهارات لضمان مراعاة الاعتبارات المتعلقة بالأمان والخصوصية وإدارة المخاطر والامتثال للسياسات.
  • الخطوة 3: استخدام دليل الذكاء الاصطناعي لتعريف الجميع بالأساسيات

    • عندما تبدأ الفِرق في تقييم أغراض الاستخدام التجاري للذكاء الاصطناعي وكل ما ينشأ عنه من مخاطر وتعقيدات وضوابط أمان، من الضروري أن تتعرَّف جميع الأطراف المعنيّة على أساسيات مراحل تطوير نموذج الذكاء الاصطناعي ، وطُرق وضع المنهجيات المنطقية المناسبة، بما في ذلك إمكانيات النموذج ومزاياه وقيوده.
  • الخطوة 4: تطبيق العناصر الأساسية الستة التي يرتكز عليها SAIF

    • يمكن تطبيق هذه العناصر بدون ترتيب زمني محدَّد.

أين يمكنني العثور على مزيد من المعلومات عن إطار عمل SAIF وكيفية تطبيقه في شركتي أو مؤسستي؟

يُرجى متابعة أخبارنا باستمرار. ستواصل Google إنشاء ومشاركة المراجِع والإرشادات والأدوات المتعلقة بـ "إطار عمل الذكاء الاصطناعي الآمن"، وستقدّم أفضل الممارسات الأخرى المتعلقة بتطوير التطبيقات المستنِدة إلى الذكاء الاصطناعي.

لماذا نطلق منتدى للجميع حول الذكاء الاصطناعي الآمن

نحن من أولى الشركات التي صاغت مبادئ الذكاء الاصطناعي وأرست المعايير الأساسية للذكاء الاصطناعي المسؤول، وهذا ما يوجّه عملياتنا نحو تطوير منتجات آمنة. وتتواصل جهودنا لدعم وتطوير أُطر عمل في هذا المجال سعيًا لتعزيز مستوى الأمان، وأدركنا أهمية إنشاء منتدى يركّز على تعزيز هذه الجهود لتحقيق النجاح على المدى البعيد. لهذا السبب، يهمّنا بناء منتدى آمن للجميع يربطه إطار عمل SAIF.