استخبارات التهديدات السيبرانية – تحديات الذكاء الاصطناعي

125 مشاهدة
8 دقائق
استخبارات التهديدات السيبرانية

في عالمنا الرقمي، تعمل الأتمتة والذكاء الاصطناعي على إعادة تشكيل استخبارات التهديدات السيبرانية لكن هل يمكن فعلاً الاستغناء عن البشر في هذه العملية؟ أم أن الحكم الدقيق للمحللين ذوي الخبرة يظل بالغ الأهمية حتى في وقت تتمكن فيه أدوات الذكاء الاصطناعي معالجة مجموعات بيانات ضخمة. يشارك معكم روبودين بعضاً من أفكار Aaron Roberts بهذا الخصوص.

استخبارات التهديدات بالذكاء الاصطناعي

تزيد العديد من المؤسسات من اعتمادها على أدوات الأمن التي تعتمد على الذكاء الاصطناعي. لكن من المهم في هذه الجهود إدراك حدود العلاقة بين البشر و الأدوات التقنية. إن أكبر ميزة يمكننا الاستفادة منها من خلال الأتمتة هي مزيج من جمع البيانات ومعالجة البيانات الأولية. في استخبارات التهديدات السيبرانية، يمكن أن تكون القدرة على استيعاب مجموعة بيانات كبيرة والحصول على بعض الفهم حول محتواها وأي مؤشرات محتملة للنتائج الرئيسة بمثابة توفير كبير للوقت. يمكننا زيادة فهمنا لقدرات ومنهجية وضحايا مجموعة برامج الفدية من خلال الاستفادة من الذكاء الاصطناعي.

لكن لا يمكننا اعتبار ذلك حلاً سحرياً. مازلنا بحاجة إلى التحقق من تلك النتائج وتأكيدها. لا أعتقد أننا قريبون من النقطة التي يمكننا فيها اعتبار الذكاء الاصطناعي موثوقاً به بما يكفي ليكون بديلاً عن محلل استخبارات متخصص. لكنه يمتلك قدرات متزايدة يوماً بعد يوم ليصبح أداة مذهلة في مواجهة الجرائم السيبرانية بشكل يمكن أن يضيف الكثير من القوة لفرق محللي استخبارات التهديدات السيبرانية.

يمكن لحلول الأمان التي تعتمد على الذكاء الاصطناعي الاستجابة للتهديدات بشكل مستقل، ولكن الحكم البشري غالباً ما يكون ضرورياً لاتخاذ القرارات الحاسمة. وهنا يبدو أنه من الأفضل دمج أنظمة الاستجابة الآلية في عملية صنع القرار البشري. يمكننا الافتراض أن الأفضل في هذا السياق هو اختبار الاستجابة الآلية في بيئة اختبار لفهم كيفية عملها وطريقة استجابتها لما تعتبره تهديدات. عندما نفكر في سيناريوهات محددة وتأثيرها المحتمل على العمل، فيمكننا أن نكون عمليين ونسمح بالاستفادة التدريجية من الاستجابات الآلية. ربما تبدأ بتنبيهات ذات أولوية أقل، وتراقب كيفية التعامل معها قبل زيادة ثقتنا والتنازل عن بعض المهام البشرية لأدوات الذكاء الاصطناعي.

حتى اليوم ـ فإنه من المهم وجود إشراف بشري على تصرفات أو توصيات الذكاء الاصطناعي.يسمح ذلك بتجاوز أي سوء فهم أو تفسير خاطئ لحدث ما، وبالتالي فإن تبني نهج مدروس ومنظم أمر حيوي لدمج الأتمتة. نعتقد أن قوة الذكاء الاصطناعي تكمن في قدرته على عزل الضوضاء وتزويدك بالأشياء الأكثر أهمية ، ولكنك لا تزال بحاجة إلى ثقة وتحقق لشري لفهم السياق الكامل والتأثير المحتمل للتوصية أو الاقتراح.

الذكاء الاصطناعي في الأمن السيبراني

يمكن في منصات الذكاء الاصطناعي أن نرى نتائج عملية التفكير ، ولكن في كثير من الأحيان، لا تستطيع معرفة أسباب والتتابع المنطقي الذي أدى لرأي ما. علماً أن رؤية عملية صنع القرار هي مفتاح لضمان اتخاذ القرارات الصحيحة فيما يتعلق بالأمن السيبراني.

مع ظهور العديدمن أدوات الذكاء الاصطناعي، ستتحسن الأمور. مع تدريب النموذج للتركيز على دوره، يمكنك التأكد من أنه يتبع الضوابط ويراجع نفسه وفقاًُ لهذه الضوابط .و الإمكانات المتاحة لهذه الوكلاء الأصغر حجماً قد تكون بمثابة تغيير حقيقي. مهام صغيرة ومُركزة قادرة على فهم ما إذا كان الناتج الأولي منطقياً ومراجعة نفسها للتأكد من أن ما يراه الإنسان منطقي.

على الرغم من أنه تطور مثير في هذا المجال، إلا أن احتمالية أن تكون أدوات الذكاء الاصطناعي موثوقين بدرجة كافية قد يستغرق بعض الوقت. ربما مع GPT5 و Grok3 والنماذج القادمة الأخرى سنرى تحسينات كبيرة، لكن الوقت كفيل بإخبارنا بذلك. لكن لا يمكننا تجاهل حقيقة أن نماذج الذكاء الاصطناعي تعكس التحيزات الموجودة في بيانات التدريب وهو ما يمكن أن يؤثر على نتائج استخبارات التهديدات السيبرانية. ولا يعني ما سبق أن البشر ليس لديهم تحيز. لكننا أقدر على فهم وتنفيذ الممارسات التي تتحدى افتراضاتنا وتحليلاتنا وهو ما يمثل الخطة المثالية للوصول لأفضل محلل في استخبارات التهديدات السيبرانية.

استخبارات التهديدات السيبرانية – أهمية الاختبارات

عندما يتعلق الأمر بالعمل مع بيانات الذكاء الاصطناعي، يمكننا تطبيق أشياء مثل مطالبات النظام (AI prompts)، ويمكننا أن نكون واضحين فيما نريد رؤيته كمخرجات، ويمكننا أن نطلب منها توضيح أين ولماذا تم تحديد النتائج وتأثيرها المحتمل. لكن ذلك لا يعفينا كبشر من مهمة التدريب والحفاظ على المهارات. من المحتمل أن يكون خطر ارتكاب الذكاء الاصطناعي للأخطاء منخفضاً نسبياً، وخاصةً في مجموعة بيانات محددة ومدربة، لكنه لن يكون صفراً. وبالتالي فأنت بحاجة إلى إنسان قادر على فهم وتفسير هذه النتائج، وقادر على طرح الأسئلة الصحيحة.

بينما نختبر نموذج لسبب محدد دون التركيز على تدريبه أو هندسته بشكل مباشر، ما زلنا نرى أنه ينشئ أشياء غير صحيحة. في معظم الأحيان، لا يكون هذا الأمر ضاراً ، ولكن عندما يكون الاختبار مرتبطاً بالاستجابة لهجوم برامج الفدية فقد يكون الأمر كارثياً. من خلال ضمان قدرتنا كمحللين بشريين لاستخبارات التهديدات السيبرانية على تحدي النتائج المقدمة وطرح الأسئلة عليها وتفسيرها بشكل صحيح، فإننا نتبع أفضل طريقة لمنع التحيزات من التأثير على النتائج. وكما هو الحال مع كل الأمور المتعلقة بالأمن، نحتاج دائمًا إلى أن نكون على دراية بالأخلاقيات حول ما نفعله، ولماذا؟.

هناك مناطق رمادية في هذا المجال بلا شك، ومن المهم أن نضمن معايير وإجراءات صارمة لعملياتنا. إذا فوضنا الحظر وتخفيف المخاطر بالكامل إلى نموذج الذكاء الاصطناعي، الذي تملكه شركة تكنولوجيا عملاقة، فهل نجازف بهذه الأخلاقيات والبوصلة الأخلاقية التي نربطها بعملنا؟ من المهم أيضاً أن يستمر الأمن في تمكين الأعمال. هناك أوقات نتفاعل فيها مع مواقع الويب في بلدان لديها مواقف سياسية مختلفة عنا.

هل يحظر الذكاء الاصطناعي تلك البلدان لأن بيانات التدريب تشير إلى أنه لا ينبغي له دعم أو توفير الوصول؟ حالياً تحظر بعض المؤسسات النطاق بشكل مبالغ فيه لتتطلب عمليات وموافقات للوصول إلى موقع ويب، هل يمكن للذكاء الاصطناعي المساعدة في هذا المجال؟ من المؤكد . ولكن يجب أن نضمن أن تكون حواجز الحماية لتدخل الذكاء الاصطناعي خاضعة لرقابة صارمة.

إن فكرة التحليل في الوقت الفعلي وحظر موقع ويب لأنه يبدو وكأنه موقع تصيد احتيالي هي بحد ذاتها مقدرة هامة ولكن إذا لم يكن موقع تصيد احتيالي وكان مجرد موقعاً إخبارياً يعتقد الذكاء الاصطناعي أنه ضار لأن مالك الشركة لديه نظرة معارضة للمؤسسة. حينها سيكون لدينا مشكلة.

كلمة أخيرة

أعتقد أننا نعيش في عصر استثنائي، حيث تتمتع التكنولوجيا بإمكانية زيادة فهمنا للكون بشكل كبير وتحسين حياتنا. ولكن في هذه المرحلة قد لا يبدو من الصحيح التسرع في إضافة الذكاء الاصطناعي إلى أدوات الأمن السيبراني بشكل مطلق. بدلاً من ذلك، يتوجب الاستمرار في النقاش حول ما يمكن أن نعتبره الخطوة الصحيحة في هذا السياق. نحن بحاجة إلى أن نكون مسؤولين وأن نتأكد من أن الأدوات تعمل لصالحنا، لتحسين سير العمل لدينا، وفي النهاية جعل أعمالنا أكثر أماناً.

شارك المقال
اضف تعليق

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *