هناك الكثير من الأسئلة حول من يتحمل المخاطر الكامنة في التقنيات الناشئة . ولكن لماذا نسأل ذات الأسئلة مع ظهور كل تكنولوجيا توفر إمكانيات جديدة. ألم نفعل ذلك سابقاً مع السحابة أو الأجهزة المحمولة، لماذا نعيد الأن اختراع العجلة مع الذكاء الاصطناعي؟
تمنح حلول أمن المعلومات المدعومة بالذكاء الاصطناعي الشركات رؤية واضحة لبياناتها الحساسة، وسياق المخاطر التي تمثلها، وإرشادات علاجية قابلة للتنفيذ وذات أولوية. وفي بعض الأحيان تستند هذه الحلول للسحابة وتوفر تغطية شاملة لأمن البيانات عبر SaaS ، PaaS و IaaS. لكن عندما يتعلق الأمر بأمن المعلومات، فإن الإستراتيجية لم تتغير منذ 15 إلى 20 عاماً. لكن التكتيكات هي ما تغير. دائماً كانت الاستراتيجية الأهم هي أن تعرف نفسك، وخاصةً بياناتك، ومكانها، وما إلى ذلك. ويليها، قلل من مساحة سطح الهجوم. ومن ثم، تجنب الوصول غير المصرح به. ومن ثم، الكشف السريع عن الحوادث واحتواؤها والاستجابة لها. و تحقيق أقصى قدر من التميز تشغيلياً. وأخيراً، التوافق مع أولويات العمل. .
الذكاء الاصطناعي – من يتحمل المسؤولية
من يتحمل المخاطر في أنظمة الذكاء الاصطناعي الناشئة؟ تم طرح هذا السؤال مراراً. يرى الخبراء أن مطوري النماذج الأساسية مسؤولون عن التخفيف من المخاطر المرتبطة بها، وليس منظمات الأعمال التي تستخدمها فعلياً. لكن ذلك لايعفي المؤسسات من تطبيق الإجراءات الأمنية للاستعداد لتوسيع أدوات الذكاء الاصطناعي. تشمل تلك التدابير والاستعدادات النظافة الأمنية الأساسية، وتقييم الأطراف الثالثة في سلسلة التوريد الخاصة بهم، وتخصيص موظفي أمن سيبراني يمعنيين بالذكاء الاصطناعي، واختبارات الأمن السيبراني الفنية الخاصة به، وتخصيص الموارد لدمج أمن الذكاء الاصطناعي في ممارسات الأعمال الحالية.
لكن بعض المؤسسات لم تفعل أي من هذه الأمور. وبالتالي، عرضت نفسها للخطر. إن الأمن دائماً ما يكون في خطر عند التخلف عن التقنيات الجديدة. تعتبر السحابة مثالاً على ذلك. كان الأمن السيبراني يقول: “السحابة مخيفة، لا تستخدمها”. نحن نفعل ذلك مرة أخرى ونستهدف تقنية جديدة هي الذكاء الاصطناعي. وبالتالي، نحن بدلاً من ذلك بحاجة إلى معرفة كيف يمكننا مساعدة أعمالنا على دمج الذكاء الاصطناعي وإيجاد طرق لتشجيع الشركات على استخدام الذكاء الاصطناعي بأمان.
الاستجابة للتغييرات
وعلى التوازي، هناك من يرى أن الهدف من الذكاء الاصطناعي هو تقليل عدد الموظفين. لكن ما يحدث هو العكس غالباً. ومن جهة أخرى، فيما يتعلق بالخوف من الذكاء الاصطناعي واعتباره كائناً غير مروض ومليء بالأخطار. لكن في الواقع، إذا بحثت في جوجل عن كيفية صنع أداة غير قانونية، وصنعتها واستخدمت تلك الأداة لارتكاب فعل جرمي، فمن الذي سيتعرض للخطر؟ انها ليست جوجل. ليس الموقع الذي أخبرك بكيفية صنع تلك الأداة. لكن الشخص الذي صنعها هو من يجب أن يُحاسب. وهذه هي الطريقة التي تستخدم بها هذه الأشياء في حالة الذكاء الاصطناعي.
ونحن بحاجة إلى تغيير تكتيكاتنا. فإذا كانت سيارتك تسير بسرعة 90 كيلومتر في الساعة، وفجأة أصبحت تسير بسرعة 200 كيلومتر في الساعة، فأنت بحاجة إلى مكابح جديدة، وتحتاج إلى إطارات جديدة، وتحتاج إلى نوابض جديدة، وتحتاج إلى أحزمة أمان جديدة. لذلك، أعتقد أن هناك تغييراً في التكتيكات. مرة أخرى، الإستراتيجية هي نفسها.يجب أن تستعين المؤسسات الكبيرة بشخص متخصص يركز على أمن الذكاء الاصطناعي ليشمل جميع فرق العمل -ربما فترة قصيرة-. الهدف هو نشر ثقافة وتوعية حول كيفية دمج تلك التقنية في عمليات المؤسسة بأفضل جودة وأكبر مردود. يُعتبر ذلك قابلاً للتنفيذ بنجاح في المؤسسات الكبيرة التي تفكر بشكل أعمق في بياناتها والذكاء الاصطناعي.
أمن البيانات ومخاطر الامتثال
في بعض الدول، تطلب السلطات من المؤسسات الإبلاغ الفوري عن حوادث الأمن السيبراني لتجنب مخاطر الامتثال. حتى أن بعض الشركات أضافت شرط الإبلاغ إلى لغة العقود لتحديد كيفية التعامل مع اختراق طرف ثالث. والأن يتكرر مفهوم مخاطر الامتثال في حالة الذكاء الاصطناعي الذي يتسم بالتعقيد. إنها تشبه قصة القانون العام لحماية البيانات (GDPR). الذي كان بالنسبة للبعض وقت إطلاقه يمبهماً ويحتوي على لغة غامضة. بالنسبة للصناعة التي تعمل في ظل الغموض، فهذا هو المكان الذي يعيش فيه الأمن السيبراني.
تعد البيانات أكبر وأسرع سطح للهجوم الأمني في العالم. تستخدم كل شركة البيانات لجمع الرؤى وإنشاء منتجات جديدة، ولكن يتعين عليها القيام بذلك دون تعريض الشركة للخطر. لكن البيانات تفعل ذلك. لذا، فإن حل مشكلة أمن البيانات يبدأ بمعرفة بياناتك ومراقبة مخاطر البيانات واكتشافها والاستجابة لها والمساعدة في التحكم في استخدام البيانات. تخيل مثلاً أن التخزين السحابي الخاص بمؤسستك قد تم اختراقه بواسطة برامج الفدية. هل تعرف ما هي البيانات الموجودة هناك؟ هل سيؤدي هذا إلى مشكلة امتثال فعلية؟ وكم سيكلفك الاستعانة بمستشار لتحديد الأهمية ؟
أعلن مزود التوقيع الإلكتروني الخاص بك عن حدوث خرق. لقد أصبحت جميع جميع عقودك الموقعة رقمياً متاحة لخصم سيبراني غير معروف. وأنت كيان تجاري. وتتعامل مع جميع أنواع الشركات الأخرى. قد تكون هناك بالفعل أسرار تجارية أو صفقات لا تريد كشفها في تلك العقود.
من المؤكد أن كل صناعة مختلفة عن الأخرى، وهناك صناعات من المحتمل أن تتضرر أكثر من غيرها. إذا لم تكن لديك حقًا أي ملكية فكرية، وكنت في الواقع أكثر من مجرد شركة مبيعات وتسويق، ولا تريد الكشف عن الأشياء التي تبيعها. بغض النظر عن الطرف الثالث الذي تم اختراقه. لكن هناك جانب من احتمال وجود طرف ثالث يمكن إلقاء اللوم عليه.
تصنيف المعلومات
موضوع أمن البيانات، وهذا موضوع كبير جداً. عندما يتعلق الأمر بأمن البيانات،فإن الناس يضعون افتراضات.قد يتعلق الأمر فقط بالتحكم بوصول الأشخاص إلى بياناتهم. لكن ما يغيب عن ذهنهم حقاً هو كيف يمكننا تمكين الموظفين من الوصول إلى البيانات. لا أن نمنعهم من الحصول عليها، ولكن التحكم في البيانات، وحماية البيانات مع تمكين الأعمال، مع تمكين الموظفين.
يعتقد الناس يعتقدون أن أمن البيانات هو “لدي حل DLP. وبدون فهم مكان وجود بياناتك ومدى أهميتها، فإن ميزة منع فقدان البيانات (DLP) تعد بمثابة أداة تحكم إضافية. وإذا لم يتم إعدادها بشكل صحيح، فهي لن تقدم لك المرجو منها. وبالتالي فإن الدقة تواجه الكثير من التحديات. يدرك الناس أن أمن البيانات هو الشيء الأهم في أمن المعلومات، و يليه الهوية. ولكن هذين الفضاءين مجزأين للغاية. وهذا يمثل تحديًا كبيرًا.
بالحديث عن أمن البيانات، فالأمر يتلخص في البداية. هل يمكنك العثور على المعلومات، وهل يمكنك تصنيفها؟ لأنها خطوة البداية التي إذا لم تتمكن من القيام بذلك بشكل صحيح، فلن يحدث أي شيء آخر. إذا كنت تنشئ البيانات، ثم تنسى أين خزنتها فأنت تحتاج لبذل جهد لكي تكتشفها، وتحتاج إلى تصنيفها وفق أهميتها، ثم تحتاج إلى التحكم فيها، وحمايتها، والتحكم في تدفقها، ومراقبتها في كل مكان. ثم عليك بالاستجابة لأي حوادث تتعلق بتغييرات المخاطر. يمكن أن تكون أسوأ حالة انتهاك، أو قد يكون مجرد شخص كشف شيئاً عرضياً. ثم آخر شيء هو التخلص من المعلومات. هذه هي دورة حياة البيانات.
الذكاء الاصطناعي التوليدي – حالة الـ SOC
المعلومات هي الأصل الرئيس، وعليك اكتشافها وتصنيفها قبل أن تتمكن من القيام بأي شيء بشكل صحيح. نرى الأمر كما لو كان لدينا مجموعة من المباني المكونة من أربعة وخمسة طوابق، والأن أصبحنا قادرين على بناء أبراج سكنية. لكن لا يمكنك أبدًا بناء تلك الأبراج ما لم يتم بناء الأساس بشكل صحيح، هنا يبدأ اكتشاف وتصنيف المعلومات. إنه الاساس للحماية. والذكاء الاصطناعي جعل العملية أسهل. إنها تغير قواعد اللعبة. يجب أن تفهم مقدار البيانات الزائدة لديك وكيف يمكنك تنظيفها. سيقلل ذلك من سطح الهجوم. ويوفر أيضاً في التكلفة.
الـذكاء الاصطناعي يساعدنا في الخروج من فجوة مهارات الأمن السيبراني عبر تطوير مسودات تقارير التحقيق، أو عبر استخدامها كمستشار مدرب على البيانات الداخلية التي يمكنها الإجابة على الأسئلة، وكوسيلة لمراجعة سياسات الامتثال. الجميع متحمسون للذكاء الاصطناعي التوليدي، لكن لاتزال هناك فجوة فيما يتعلق بكيفية ربط تقنية الذكاء الاصطناعي التوليدي بسير عمل محلل الـ SOC مثلاً. نعتقد أن ذلك سيسمح بجعل المحللين أكثر كفاءة.
يعد الذكاء الاصطناعي التوليدي أمراً رائعاً بالنظر إلى معالجة كميات هائلة من البيانات وتلخيصها بسرعة كبيرة وعادةً ما يكون دقيقاً جداً. هذا هو المستقبل الذي نتجه نحوه. لا يزال يتعين علينا معرفة كيفية التعامل مع الإبرة الموجودة في كومة القش. لن نجد بالضرورة هذا الحدث الفريد من بين ملايين الأحداث لكن طريقة البحث مبتكرة. ومن جانب آخر، فالبشر سيئون في القيام بالأعمال المتكررة، على نطاق واسع. وهنا تكمن أهمية الذكاء الاصطناعي الذي يتفوق على الإنسان بسرعة وكمية المعلومات التي يمكنه استيعابها ومعالجتها واستخلاص النتائج منها.
كلمة أخيرة
أحد الأشياء التي يجب على الناس أخذها بعين الاعتبار أن البيانات هي الأساس الذي يحدد قوة أي نموذج ذكاء اصطناعي. لذلك المهم حماية تلك البيانات. حتى إذا عدنا إلى الضوابط الأساسية القياسية، مثل ضوابط CIS ، فإن الأولوية هي لمعرفة المعلومات الخاصة بك.