تستخدم العديد من المؤسسات المالية حالياً أنظمة الذكاء الاصطناعي في مجموعة متنوعة من العمليات، كما تقيم بعضها أو تجرب أدوات تعتمد على الذكاء الاصطناعي التوليدي لدعم كفاءة الموظفين في مهام البحث وكتابة التقارير. و مع توسع الذكاء الاصطناعي في الخدمات المالية، مازال النضج في استخدامه ونشره يختلف باختلاف المؤسسة ويستمر في التطور.
الذكاء الاصطناعي في الخدمات المالية
تم استخدام أدوات الذكاء الاصطناعي للكشف عن الاحتيال، بما في ذلك الأدوات القائمة على التعلم الآلي (ML)، من قبل مجموعة واسعة من المؤسسات المالية كجزء من استراتيجيات إدارة المخاطر . وتتضمن أنواع مختلفة من أدوات الأمن السيبراني التي تستخدمها المؤسسات المالية عادةً للتخفيف من مخاطر الأمن السيبراني الذكاء الاصطناعي، مما يجعل المؤسسات أكثر مرونة مما كانت عليه في الماضي. قدمت المؤسسات المالية أمثلة على دمج أساليب الذكاء الاصطناعي المتقدمة في حماية نقاط النهاية، واكتشاف ومنع التطفل، ومنع فقدان البيانات، وأدوات جدار الحماية.
و كبديل للأنظمة الأمنية التقليدية، تنتشر كذلك الأدوات التي تعتمد على الذكاء الاصطناعي للكشف عن التهديدات السيبرانية في المؤسسات المالية. يمكن أن تساعد أدوات الذكاء الاصطناعي في الكشف عن الأنشطة الضارة التي تظهر بدون توقيع معروف . أصبحت هذه القدرة بالغة الأهمية في مواجهة التهديدات السيبرانية الأكثر تطورًا وديناميكية والتي قد تستغل أدوات إدارة النظام لتجنب الكشف عن بصمتها الضارة. ويعلم مسؤولو الأمن اليوم أن تبنيهم المتزايد للذكاء الاصطناعي بأنواعه، سيحسن جودة وكفاءة تكلفة وظائف إدارة الأمن السيبراني ومكافحة الاحتيال بشكل كبير.
ومن جهة أخرى، تعتمد العديد من الشركات بشكل كبير على أتمتة للمهام المتعلقة بمكافحة الاحتيال والأمن السيبراني والتي كانت تستغرق وقتاً طويلاً وتتطلب وجود موظفين. يمكن للذكاء الاصطناعي التوليدي تعزيز هذه العمليات من خلال التقاط ومعالجة مجموعات بيانات أوسع وأعمق والاستفادة من تحليلات أكثر تطوراً. وبالتالي، تساعد هذه التقنيات المؤسسات على تبني مواقف أكثر استباقية للأمن السيبراني ومنع الاحتيال. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي التوليدي لتوفير فرص لتثقيف الموظفين والعملاء حول الأمن السيبراني وتدابير الكشف عن الاحتيال والوقاية منه أو لتحليل وثائق السياسة الداخلية لتحديد الثغرات في هذه التدابير وإعطائها الأولوية.
خطوات حذرة
على الرغم من الآراء حول إمكاناته، مازالت الشركات يتبنون نهجاً حذراً وقائماً على المخاطر لدمج الذكاء الاصطناعي التوليدي في عمليات الأمن السيبراني ومكافحة الاحتيال. تتحرك الشركات ببطء ممزوج بالحذر تجاه الذكاء الاصطناعي التوليدي ويحاولون تقليل مخاطره من خلال وضع قيود أمنية وتطوير سياسات داخلية للاستخدام المقبول لهذه التكنولوجيا. بشكل عام، ذكر ممثلو المؤسسات المالية أنهم ينفذون عمليات لإدارة المخاطر التي تفرضها التقنيات الناشئة والحرجة كجزء من إدارة المخاطر المالية أو التشغيلية أو القانونية أو أضرار السمعة.
تسعى المؤسسات المالية لضمان توافق ممارساتهم الحالية مع جوانب إطار عمل إدارة مخاطر الذكاء الاصطناعي (RMF) التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، والذي تم إصداره في كانون الثاني- 2023. نفذ الكثير منهم العناصر الأساسية لذلك الإطار. لكن لاحظ الكثيرون أيضاً أنه من الصعب وضع سياسات وضوابط عملية وعلى مستوى المؤسسة للتكنولوجيات الناشئة مثل الذكاء الاصطناعي التوليدي. وفي حين يجب على برامج إدارة المخاطر رسم خريطة وقياس المخاطر المميزة التي تشكلها التقنيات مثل نماذج اللغة الكبيرة (LLM)، فإن هذه التقنيات جديدة ويمكن أن يكون من الصعب تقييمها ومعاييرها وتقييمها من حيث الأمن السيبراني.
أنواع أنظمة الذكاء الاصطناعي
يختلف استخدام المؤسسات المالية لأنظمة الذكاء الاصطناعي الداخلية والخارجية حسب حجم المؤسسة. فتلجأ العديد من المؤسسات إلى التعاقد مع مزود خدمة أو شراء منتج تابع لجهة خارجية لأنظمة الذكاء الاصطناعي المتعلقة بالأمن السيبراني أو مكافحة الاحتيال. بينما تستخدم المؤسسات المالية المتوسطة الحجم، مجموعة من نماذج الذكاء الاصطناعي التي تم تطويرها داخلياً أو تم شراءها وتخصيصها باستخدام بيانات المؤسسة. لكن البنوك الكبرى توظف مطورين لأنظمة الذكاء الاصطناعي وهو ما ساعدها على الحد بشكل كبير من النشاط الاحتيالي.
في بعض الحالات، تستحوذ المؤسسات المالية على نموذج الذكاء الاصطناعي من كيان تابع لجهة خارجية يتم تطويره بناءً على عينة أو بيانات مجهولة المصدر تقدمها المؤسسة. وبعدها تسعى المؤسسات المالية للاستفادة من بياناتهم لتطوير حالات الاستخدام الخاصة بهم. مع توفر قدرة الحوسبة والأدوات التحليلية من خلال مزودي الخدمات السحابية، قد تطور المزيد من المؤسسات نماذجها الخاصة. من المرجح أن تتمكن المؤسسات التي تبنت بالفعل الخدمات السحابية، أو تلك التي لديها كميات كبيرة من البيانات، من الاستفادة من أدوات الذكاء الاصطناعي في وقت أقرب من تلك التي لم تفعل ذلك. من المرجح أن تتمكن المؤسسات التي نقلت بالفعل بعض أنظمتها وبياناتها إلى منصات الحوسبة السحابية من الاستفادة من هذه التطورات في وقت أقرب,
تحديات الذكاء الاصطناعي في الخدمات المالية
يعتقد الكثير من مدراء المؤسسات المالية أن نماذج الذكاء الاصطناعي التوليدي لا تزال قيد التطوير، وهي مكلفة بالمعايير الحالية ويصعب التحقق منها مما يشكل خطراً على القطاعات عالية الحساسية. ونتيجة لذلك، فإن العديد من الشركات تعطي الأولوية بدلاً من ذلك لحالات الاستخدام منخفضة المخاطر وعالية عائد الاستثمار، مثل أدوات المساعدة في توليد التعليمات البرمجية. باستثناء المؤسسات الصغيرة التي يبدو أنها لا تستخدم الذكاء الاصطناعي التوليدي في الوقت الحالي. وكذلك، فإن معظم الشركات المالية لم تستخدم الأدوات المجانية أو واجهات برمجة التطبيقات العامة (API) لمقدمي الذكاء الاصطناعي التوليدي واختارت بدلاً من ذلك حلاً مؤسسياً تم نشره في شبكة سحابية افتراضية خاصة بها.
ومع ذلك، من أجل اتباع نهج أكثر تخصيصاً، لجأت العديد من المؤسسات لاستخدام طريقة التوليد المعزز للاسترجاع (RAG)، حيث يتم اختيار نموذج أساسي مفتوح أو مغلق المصدر، ثم يتم تحويل بيانات المؤسسة الخاصة وتخزينها في قاعدة بيانات واستخدامها لإثراء المطالبة (Prompt) لتوفير استجابات أكثر صلة ودقة. يمكن دمج هذه التقنية مع الضبط الدقيق للنموذج المفتوح باستخدام بيانات خاصة غير حساسة.
الأمن السيبراني و الذكاء الاصطناعي
يظل الهدف الأساسي للأمن السيبراني للمؤسسات المالية عموماً هو حماية أصولها المهمة: موظفيها وعملائها وبياناتها، بما في ذلك المعلومات الداخلية والمعلومات الواردة من الخارج. توفر المتطلبات التنظيمية والتوجيهات إطاراً للمؤسسات لتطبيق الضوابط للتخفيف من مخاطر الأمن السيبراني المتعلقة بالذكاء الاصطناعي. ومع ذلك، قد يتطلب الذكاء الاصطناعي التوليدي، من المؤسسات توسيع نطاق هذه الضوابط أو اعتماد ضوابط جديدة.
يمكن أن تحدث عمليات تسميم البيانات وتسرب البيانات وهجمات سلامة البيانات في أي مرحلة من مراحل تطوير الذكاء الاصطناعي وسلسلة التوريد. تكون أنظمة الذكاء الاصطناعي أكثر عرضة لهذه المخاوف من أنظمة البرمجيات التقليدية بسبب اعتماد نظام الذكاء الاصطناعي على البيانات المستخدمة.
الذكاء الاصطناعي في الخدمات المالية – كشف الاحتيال
ازداد توافر التقنيات الرقمية الجديدة المتعلقة بالخدمات المالية، وخدمات البنية التحتية، وبيانات المستهلكين. وفي حين أن هذه التطورات السريعة يمكن أن تفيد الشركات والمستهلكين، إلا أنها أدت أيضاً إلى زيادة في عدد وتعقيد الأنشطة الاحتيالية.
في الوقت الحالي، لا تتشارك الشركات بيانات الاحتيال مع بعضها البعض بالقدر المطلوب لتدريب نماذج الذكاء الاصطناعي لمكافحة الاحتيال. وكما هو الحال في أدوات الأمن السيبراني، تطورت تقنيات الكشف عن الاحتيال والوقاية منه من محركات تقليدية قائمة على القواعد وقوائم الرفض وبصمات الأجهزة إلى أنظمة أكثر تقدماً تعتمد على التعلم الآلي. ومع ذلك، فإن دقة الأنظمة القائمة على التعلم الآلي في تحديد أنماط السلوك الاحتيالية ونمذجتها ترتبط ارتباطاً مباشراً بحجم ونطاق (تنوع مجموعات البيانات) وجودة البيانات المتاحة للشركات. وعلى عكس البيانات المتعلقة بالأمن السيبراني، فإن هناك القليل من تبادل معلومات الاحتيال عبر القطاع المالي، مما يحد من القدرة على تجميع بيانات الاحتيال لاستخدامها بواسطة أنظمة الذكاء الاصطناعي. ترى مؤسسات مالية أن هناك الحاجة إلى تعاون أفضل في هذا المجال، خاصة وأن المحتالين أنفسهم يستخدمون تقنيات الذكاء الاصطناعي والتعلم الآلي. من شأن تبادل بيانات الاحتيال أن يدعم تطوير أدوات الكشف عن الاحتيال المتطورة وتحديد أفضل للاتجاهات أو المخاطر الناشئة.
كلمة أخيرة
في حين أن جمع بيانات الاحتيال وتحليلها ومشاركتها يمكن أن يحسن من الكشف، فإنه يثير أيضاً مخاوف تتعلق بالخصوصية والتي يجب إدارتها من خلال ممارسات حماية البيانات والخصوصية القوية. إن جمع وتخزين ومعالجة المعلومات المالية الحساسة أو غيرها من البيانات الشخصية يشكل مخاطر. وتعد سجلات المعاملات والسلوكيات الشخصية أمثلة على المعلومات المالية الحساسة التي لا ينصح استخدامها كمدخلات في أنظمة الذكاء الاصطناعي.