إن التطور السريع لتقنيات الذكاء الاصطناعي القوية والمبتكرة بزيد المخاوف بشأن الأضرار المحتملة على السلامة والخصوصية على المجتمع البشري. تخشى الحكومات والأفراد على حد سواء من أن الشركات التي تطور أنظمة الذكاء الاصطناعي القوية قد لا تقيم بشكل كافٍ المخاطر التي قد تشكلها التقنيات الجديدة، ولذلك يريدون حوكمة الذكاء الاصطناعي بطريقة شفافة للمساعدة في تقييم المخاطر والتخفيف منها.
كانت تقنيات المعلومات خاضعة لمعايير امتثال وضوابط قوية . ويمكن اعتبار قانون حماية البيانات العامة (GDPR) ومعيار PCI DSS من الأمثلة الهامة على ذلك. لكن اللوائح والمعايير الخاصة بالذكاء الاصطناعي تتطور بشكل أسرع بكثير، بسبب الجوانب الفريدة لهذه التقنيات، مثل أن يكون هناك تبعات سيئة علىالأفراد والمجتمع نتيجة اتخاذ الـ AI قرارات تلقائية. تثير الكميات الكبيرة من البيانات التي تستخدمها تطبيقات الذكاء الاصطناعي مخاوف بشأن الخصوصية. كما يمكن استخدام الذكاء الاصطناعي التوليدي لإنشاء محتوى خادع أو ضار. وبالتالي، يبرر ذلك الكم الكبير نسبياً من أطر تنظيم الذكاء الاصطناعي قيد الدراسة حول العالم. أينما تقود هذه الجهود، يبدو الآن من المرجح أن يكون لها تأثير كبير على تطوير ونشر العديد من تطبيقات الذكاء الاصطناعي في السنوات القادمة.
حوكمة الذكاء الاصطناعي – معايير جديدة
ضمن العديد من اللوائح المقترحة في جميع أنحاء العالم والتي تتناول الذكاء الاصطناعي، يناقش هذا المقال إطار عمل إدارة مخاطر الذكاء الاصطناعي من(NIST)، و بعض أكثر معايير الـ (ISO/IEC) أهمية. من المرجح أن تكون هذه المعايير مؤثرة في حوكمة تقنيات الذكاء الاصطناعي، وبالتالي يجب أن تكون موضع اهتمام خاص للشركات التي تتبنى الذكاء الاصطناعي أو تفكر في تطبيقه. يعرّف إطار عمل المعهد الوطني للمعايير والتكنولوجيا (NIST) أنظمة الذكاء الاصطناعي بأنها “أنظمة هندسية أو تعتمد على الآلة يمكنها، لمجموعة معينة من الأهداف، توليد مخرجات مثل التنبؤات أو التوصيات أو القرارات التي تؤثر على البيئات الحقيقية أو الافتراضية. ويتم تصميم أنظمة الذكاء الاصطناعي للعمل بمستويات متفاوتة من الاستقلالية”.
إطار عمل إدارة مخاطر الذكاء الاصطناعي AI RMF 1.0
يمثل إطار (AI RMF 1.0) مجموعة من الإرشادات التي تهدف إلى مساعدة المؤسسات في تصميم وتطوير واستخدام وتقييم أنظمة الذكاء الاصطناعي بطريقة جديرة بالثقة ومسؤولة. يهدف الإطار إلى معالجة المخاطر المختلفة التي قد تشكلها أنظمة الذكاء الاصطناعي على الخصوصية والأمان والسلامة للأفراد والمؤسسات والمجتمع. ينقسم الإطار إلى جزأين. يناقش الجزء الأول كيف يمكن للمنظمات تأطير المخاطر المتعلقة بالذكاء الاصطناعي. بينما يتكون الجزء الثاني، وهو جوهر الإطار، من أربع وظائف وهي: الحوكمة، التخطيط، القياس والإدارة. تنطبق الحوكمة على جميع عمليات وإجراءات إدارة مخاطر الذكاء الاصطناعي، ويمكن تطبيق وظائف التخطيط والقياس والإدارة في مراحل محددة من عملية تطوير الذكاء الاصطناعي. يتم تقسيم كل وظيفة إلى وظائف فرعية محددة. يمكن للمؤسسات الاستفادة من الإطار لتطبيق الوظائف الأكثر ملاءمة لبيئاتها، ونشرها في نقاط مختلفة أثناء دورة حياة الذكاء الاصطناعي واختيار الفئات الفرعية المناسبة لاحتياجاتها.
الحوكمة
تغطي وظيفة الحوكمة عملية إدارة المخاطر بأكملها من خلال سلسلة من العمليات والوثائق والمخططات التنظيمية للمساعدة في تحديد وإدارة المخاطر عبر دورة حياة النظام بأكملها. كما توفر الحوكمة هيكلاً يمكنه مواءمة وظائف إدارة المخاطر والوظائف الفنية مع المبادئ التنظيمية، وبالتالي تعزيز ثقافة إدارة المخاطر في المنظمات التي تطور أو تنشر أنظمة الذكاء الاصطناعي.
القياس
تستخدم وظيفة القياس أدوات كمية أو نوعية أو مختلطة الأساليب لتقييم وقياس ومراقبة مخاطر الذكاء الاصطناعي.
تستفيد هذه الوظيفة من المعلومات التي تم جمعها في الحوكمة. تتضمن المخاطر المقاسة خصائص جديرة بالثقة، والتأثير الاجتماعي، وتكوينات الذكاء الاصطناعي. يمكن أن تتضمن العمليات المستخدمة في وظيفة القياس اختبار البرمجيات، ومقاييس الأداء، والتقارير الرسمية، وتوثيق النتائج.
التخطيط
تحدد وظيفة التخطيط سياق نظام الذكاء الاصطناعي من خلال تحديد الغرض والاستخدام والقوانين والمعايير والتوقعات وإعدادات النشر. وتتضمن وظيفة التخطيط تصنيف النظام، وإمكانات النظام، والاستخدام والأهداف، والمخاطر والفوائد، والتأثيرات على الأفراد، والمجموعات، والمجتمعات، والمنظمات. وتشكل النتائج في هذه المرحلة الأساس لوظيفتي القياس والإدارة.
الإدارة
ترتب وظيفة الإدارة أولويات المخاطر وتخصص الموارد لمعالجة المخاطر كما هو محدد بواسطة وظيفة الحوكمة. تتضمن الإدارة تحديد أولويات المخاطر كما هو مستمد من التخطيط والقياس، واستراتيجيات الاستفادة القصوى من الذكاء الاصطناعي وتقليل التأثيرات السلبية، وإدارة المخاطر والفوائد من الكيانات الخارجية، ومعالجات المخاطر، وتتضمن خطط الاستجابة والتعافي والاتصال.
معايير ISO/IEC لحوكمة الذكاء الاصطناعي
ISO (المنظمة الدولية للمعايير) هي منظمة دولية مستقلة غير حكومية تضم في عضويتها 169 هيئة معايير وطنية. تعمل المنظمة على تطوير ونشر المعايير الدولية، بما في ذلك العديد من المعايير الأساسية المألوفة لمحترفي تكنولوجيا المعلومات. في عام 2017، أنشأت ISO لجنة لتطوير المعايير الدولية للذكاء الاصطناعي. نشرت اللجنة 20 معياراً وهناك العديد من المعايير الأخرى قيد التطوير. أما المقصود من المعايير التي طورتها فهو أن يكون لها تطبيق واسع النطاق عبر نظام الذكاء الاصطناعي بأكمله وعبر الصناعات.
وهي تتناول موضوعات أساسية مثل الحوكمة (ISO/IEC 38507)، والمفاهيم والمصطلحات (ISO/IEC 22989)، ودورة حياة النظام (ISO/IEC 5338). نظراً لأهمية تقنية الذكاء الاصطناعي، فإن المعايير التي وضعتها اللجنة تأخذ في الاعتبار أيضاً العوامل غير التقنية، بما في ذلك التنظيم ونماذج الأعمال والتأثيرات المجتمعية والقضايا الأخلاقية. وتوفر معايير ISO الناشئة للذكاء الاصطناعي إطاراً لإدارة أمن المعلومات وخصوصية البيانات وجودة الخدمة ورضا العملاء. بالإضافة إلى ذلك، من المرجح أن تكون جزءاً أساسياً من مؤشرات الامتثال للمتطلبات القانونية والتنظيمية، إضافة لإظهار الكفاءة للعملاء والموردين وأصحاب المصلحة.
المعايير الرئيسة المنشورة من ISO
- ISO/IEC 38507:2022: : يقدم إرشادات حول دور الإدارة العليا في حوكمة استخدام الذكاء الاصطناعي داخل المؤسسة ويشجعها على استخدام المعايير المناسبة لتحقيق هذا الهدف.
- ISO/IEC TR 24028:2020: مراجعة الأساليب الحالية التي يمكن أن تعمل على تحسين الجدارة بالثقة وتطبيقها المحتمل على أنظمة الذكاء الاصطناعي، بالإضافة إلى الأساليب المستخدمة للتخفيف من نقاط الضعف في أنظمة الذكاء الاصطناعي المعنية بهذه المهمة.
- ISO/IEC 23894:2023: وهو معيار إرشادات إدارة المخاطر. يحتوي على ثلاثة أجزاء رئيسية: المبادئ، والإطار، وعمليات إدارة المخاطر المطبقة على الذكاء الاصطناعي.
- ISO/IEC 22989:2022: توفير مفاهيم ومصطلحات موحدة لتحسين فهم تكنولوجيا الذكاء الاصطناعي وتشجيع استخدامها من قبل مجموعة أوسع من أصحاب المصلحة.
أسس الامتثال في الذكاء الاصطناعي
تستفيد معايير الامتثال الناشئة للذكاء الاصطناعي وتبني على المعايير الحالية لتقنيات المعلومات. يأتي معيار ISO/IEC 38507 لحوكمة الذكاء الاصطناعي من معيار ISO 37000 الخاص بحوكمة المنظمات، ويعتمد إطار عمل إدارة مخاطر الذكاء الاصطناعي من NIST على إطار عمل الأمن السيبراني وإطار عمل إدارة المخاطر التابع لذات المؤسسة. ومثل المعايير السابقة، تركز معايير الذكاء الاصطناعي الناشئة على ممارسات إدارة المخاطر والأمان والموثوقية والتشغيل البيني.
إن الطبيعة الفريدة لأنظمة الذكاء الاصطناعي تؤدي إلى بعض الاختلافات المهمة عن المعايير السابقة. نظراً لأن أنظمة الذكاء الاصطناعي يمكن أن يكون لها تأثير مجتمعي أكبر، فإن معايير الامتثال للذكاء الاصطناعي تنطوي على عدد أوسع وأكثر شمولاً من أصحاب المصلحة، وتركز بشكل أكبر على الآثار الأخلاقية والاجتماعية والقانونية لأنظمة الذكاء الاصطناعي، مثل العدالة والشفافية والمساءلة والخصوصية والأمن. نظراً لأن أنظمة الذكاء الاصطناعي تتغير بسرعة، فإن معايير الامتثال للذكاء الاصطناعي مصممة لتكون:
- جديرة بالثقة: تحتاج المنظمات إلى ضمان أن تكون الأنظمة جديرة بالثقة من خلال مراعاة المخاطر التي تهدد السلامة والأمن والخصوصية والمساءلة.
- ديناميكية: أنظمة الذكاء الاصطناعي ديناميكية وتنطوي على التعلم المستمر والتحديث، لذلك يجب مراجعة العمليات وتعديلها بانتظام.
- شاملة: ينبغي تطوير أنظمة الذكاء الاصطناعي مع الأخذ بعين الاعتبار مدخلات مجموعة واسعة من أصحاب المصلحة عبر دورة حياة الذكاء الاصطناعي بأكملها.
- قابلة للحوكمة: يجب أن تكون الحوكمة والرقابة قويتين، ويجب أن يكون البشر في نهاية المطاف مسؤولين عن القرارات والنتائج.
- مسؤولة: ينبغي للمنظمات أن تأخذ في الاعتبار الأضرار المحتملة التي قد تلحق بالأفراد والمجموعات المحددة بما في ذلك خصوصية البشر والفرص الاقتصادية.
كلمة أخيرة
تتطلب حوكمة الذكاء الاصطناعي الحاجة إلى رعاية أكبر، ومشاركة أوسع من جانب أصحاب المصلحة، والمراجعة المستمرة.
يتعين على المنظمات الاستعداد لمتطلبات الامتثال الخاصة بالذكاء الاصطناعي عبر تنفيذ الممارسات التي تتوافق مع الموضوعات المستجدة في تلك التقنية.