أضافت تقنيات الذكاء الاصطناعي (AI) إمكانات كبيرة لتحسين المجتمع وحياة الناس، من التجارة والصحة إلى النقل والأمن السيبراني. يمكن لهذه التقنيات أن تقود النمو الاقتصادي والتقدم العلمي الذي يحسن ظروف عالمنا. ومع ذلك، تشكل تقنيات الذكاء الاصطناعي أيضاً مخاطر يمكن أن تؤثر سلباً على الأفراد والمؤسسات والمجتمعات. مثل الأنواع الأخرى من التكنولوجيا، يتغير مشهد الذكاء الاصطناعي (AI) باستمرار. ولمواكبة هذه التقنيات المتطورة، يجب على مسؤولي أمن المعلومات الاستعداد لمزيد من التعقيد في استراتيجياتهم الأمنية. في حين يمثل الذكاء الاصطناعي تحدياً و محنة لمسؤولي أمن المعلومات، فإنه يوفر أيضاً فرصة و منحة. يناقش روبودين في هذا المقال مخاطر وفوائد الذكاء الاصطناعي.
مخاطر الذكاء الاصطناعي
يمكن أن تتجاوز المخاطر الناجمة عن التكنولوجيا القائمة على الذكاء الاصطناعي حدود المؤسسة، وتمتد إلى مؤسسات، أوتؤدي إلى تأثيرات مجتمعية. تجلب أنظمة الذكاء الاصطناعي مجموعة من المخاطر التي لم يتم التعامل معها بشكل شامل من خلال أطر ونهج المخاطر الحالية. بالمقارنة مع البرامج التقليدية، فإن المخاطر الخاصة بالذكاء الاصطناعي تشمل
التالي:
- أحياناً، لا تمثل البيانات المستخدمة لبناء نظام الذكاء الاصطناعي تمثيلاً حقيقياً أو مناسباً للسياق أو الاستخدام المنشود لنظام الذكاء الاصطناعي. فالمعلومات قد لا تكون متاحة أو تأثرت بالتحيز الضار ومشكلات أخرى تتعلق بجودة البيانات مما يؤثر على مصداقية نظام الذكاء الاصطناعي.
- تؤدي التغييرات المقصودة أو غير المقصودة أثناء التدريب إلى تغيير أداء نظام الذكاء الاصطناعي بشكل أساسي.
- قد تصبح مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي منفصلة عن سياقها الأصلي والمقصود أو قد تصبح قديمة بالنسبة لسياق النشر.
- حجم نظام الذكاء الاصطناعي وتعقيده. تحتوي العديد من الأنظمة على مليارات أو حتى تريليونات من نقاط القرار الموجودة ضمن تطبيقات البرامج التقليدية.
- مخاطر الخصوصية بسبب القدرة المحسنة على تجميع البيانات لأنظمة الذكاء الاصطناعي.
- تتطلب أنظمة الذكاء الاصطناعي صيانة متكررة ومشغلات لإجراء الصيانة التصحيحية بسبب انحراف البيانات أو النموذج أو المفهوم.
- صعوبة في إجراء اختبارات منتظمة للبرامج المعتمدة على الذكاء الاصطناعي، أو تحديد ما يجب القيام به في الاختبار، نظراً لأن أنظمة الذكاء الاصطناعي لا تخضع لنفس الضوابط التي يخضع لها تطوير التعليمات البرمجية التقليدية.
قادة أمن المعلومات – مخاطر وفوائد الذكاء الاصطناعي
تتمثل مسؤوليات مدير أمن المعلومات في حماية المنظمة من فقدان البيانات والتهديدات السيبرانية عموماً . كما يللعب أيضاً دوراً في مساعدة المؤسسة على فهم المشهد الأمني ودفع الأعمال للأمام. وفي موضوع الذكاء الاصطناعي فإن أغلب المخاطر تأتي من جهل أغلب الناس بأساسيات و خفايا هذه التقنية. حتى أن البعض يرى الذكاء الاصطناعي وكأنه “تقنية شبيهة بالكائنات الفضائية” فهو شيء جديد ومختلف تماماً. ويمثل ذلك تحدياً لممارسي الأمن السيبراني لأنهم حذرون بطبيعتهم. إنهم يودون أن يفهموا كيفية عمل الأشياء لمعرفة كيفية حمايتها. وبالتالي يعمل مسؤولو الأمن على مدار الساعة لتقصي الحقائق والتعلم أكثر عن أساسيات نماذج الذكاء الاصطناعي، خصوصاً مع مدى سرعة تطور هذا المجال. الهدف من هذا الجهد هو محاولة لفهم كيفية عملها لمعرفة كيفية إضافة ضوابط الأمان بشكل صحيح. ومن أهم مخاطر الذكاء الاصطناعي ما يلي:
نماذج التدريب على المعلومات
تعتمد أنظمة الذكاء الاصطناعي على البيانات. تحتوي النماذج على بيانات نغذيها للتدريب أو تجمعها كجزء من وظائفها العادية. في كثير من الحالات، يتم سحب هذه البيانات من مصادر عامة، ولكن عند استخدام المعلومات الخاصة لتدريب النماذج، نحتاج إلى التأكد من عزل النموذج ومنع الآخرين -خارج المنظمة- من الوصول إليه.
الاستعجال في اسناد المهام للذكاء الاصطناعي
تسند بعض الشركات إلى الذكاء الاصطناعي مهمة معالجة الكثير من الأمور في وقت مبكر جداً. نحن نعلم أن الذكاء الاصطناعي يقوم ببعض الأشياء الرائعة حقاً وقد يكون بديلاً عن كثير من الكفاءات في العديد من أنشطتنا اليومية. ومع ذلك، فقد رأينا جميعاً أن الذكاء الاصطناعي يخطئ أحياناً. على سبيل المثال، كانت هناك حالة حديثة حيث كذب برنامج الدردشة الآلي الذي تديره شركة طيران كبرى على العملاء بشأن الحسومات على تذكرة السفر لحضور جنازة أحد أفراد العائلة. أخبر برنامج الدردشة الآلي الراكب أنه يمكنه التقدم بأثر رجعي للحصول على خصم السفر، وهو ما لم يتم تحديده فعلياً في سياسة شركة الطيران. لا نقول أنه ينبغي عدم استخدام برامج الدردشة الآلية لمساعدة العملاء في حل مشكلات الخدمة. لكننا فقط نشير لأهمية التوازن بين مخاطر وفوائد الذكاء الاصطناعي. على سبيل المثال، إن تعامل روبوتات الدردشة مع القضايا الحساسة مثل السياسات قد يكون أمراً سابقاً لأوانه بعض الشيء، وبالتالي يجب أن نكون مستعدين للعواقب إذا ارتكب روبوت الدردشة خطأً ما.
استخدام الذكاء الاصطناعي من قبل الجهات الضارة
كلما تم إطلاق تكنولوجيا جديدة، يتم الترويج لفوائدها، بينما يفكر الفاعلون السيئون في طرق استخدامها بطرق ضارة. لقد رأينا بالفعل أن هذا يحدث مع التزييف العميق والبرامج الضارة وحملات التصيد الاحتيالي. لذلك، بقدر ما نحن حميعاً متحمسون للذكاء الاصطناعي، نحن بحاجة إلى التأكد من أننا نفكر بشكل كامل في المخاطر ونتعامل مع استخدام هذه التقنية بطريقة مدروسة.
التخفيف من مخاطر الذكاء الاصطناعي
قبل كل شيء، نحتاج إلى البدء في معرفة كيفية اعتماد التكنولوجيا وتنفيذها بالطريقة الصحيحة. بدل سعي فريق الأعمال لتجاوز فرق الأمن السيبراني التي تتعامل بحذر مع الذكاء الاصطناعي سيكون من الضروري الشراكة بين فرق العمل و مسؤولي الأمن حتى يتمكنوا من اعتماد الذكاء الاصطناعي بطريقة مدروسة. وبالتالي، يجب على فرق الأمن أن تبدأ بفعل شيئين مهمين وهما:
- فهم الموردين المتعاقد معهم و الذين يستفيدون من الذكاء الاصطناعي في تعاملهم مع المؤسسة. ويتطلب ذلك طرح الأسئلة لفهم كيفية تطبيقهم للذكاء الاصطناعي على بيانات المؤسسة وتوظيفها في نماذج التدريب على البيانات وأثر ذلك على مستوى حماية البيانات.
- تعرف على الموردين الذين يستخدمون النماذج التي تم تدريبها باستخدام البيانات الحساسة للمؤسسة. في هذه المرحلة، تصبح الأمور محفوفة بالمخاطر، وبالتالي يجب على المؤسسة أن تحدد موقفها تجاهه تعاقدياً ومن خلال سياسات وإجراءات إدارة العلاقة مع الطرف الثالث.
إن الذكاء الاصطناعي يشبه أي تقنية جديدة أخرى وأن ضوابط الأمان الرئيسة لا تزال سارية المفعول. نحن بحاجة إلى التفكير في عناصر التحكم في الوصول، وتصنيف البيانات، وما إلى ذلك – ولا تزال الضوابط الأساسية تنطبق على الذكاء الاصطناعي.
فوائد الذكاء الاصطناعي لرؤساء أمن المعلومات
تم استخدام التعلم الآلي (ML) في مجال الأمن السيبراني لسنوات لأداء وظائف مثل تحديد الحالات الشاذة في السجلات. سيأخذنا الذكاء الاصطناعي ونماذج اللغات الكبيرة (LLMs) إلى مستوى جديد. يساعدنا الذكاء الاصطناعي على تحسين وظائف الأمان الرئيسة. على سبيل المثال، تحقق المؤسسات نتائج أفضل في أتمتة الاستبيانات، ورسم خرائط الضوابط والاختبارات، وإعداد التقارير. وهذه المهام اليومية هي ما نحتاج إليه لتحسين موقف الأمن السيبراني. ومن خلال أتمتة هذه الوظائف بشكل أكبر، يمكننا الاستمرار في التركيز على معالجة المخاطر ذات الأولوية الأعلى في جميع مفاصل الأعمال في المؤسسة.
كلمة أخيرة
يعاني محترفو الأمن السيبراني في الوقت الحالي من المخاطر التي يفرضها التطور السريع للذكاء الاصطناعي. وللتغلب على ذلك، يمكن للشركات اتباع إطار عمل إدارة مخاطر الذكاء الاصطناعي (RMF) من قبل المعهد الوطني للمعايير والتكنولوجيا (NIST). تم إنشاء إطار عمل الذكاء الاصطناعي (AI RMF) للتخفيف من المخاطر المرتبطة بتصميم منتجات الذكاء الاصطناعي وتطويرها واستخدامها وتقييمها.