الذكاء الاصطناعي (AI) هو مجال أنشأ فيه العلماء خوارزميات “ذكية” يمكنها “التعلم” من البيانات.أما الذكاء الاصطناعي التوليدي (Gen AI)، فهو نوع من الذكاء الاصطناعي قادر على إنشاء محتوى جديد، تماماً كما يفعل البشر. على سبيل المثال، يمكنه كتابة المقالات وحل المسائل الرياضية وحتى الفوز بمسابقات فنية. على الرغم من أن الذكاء الاصطناعي مفيد للغاية، إلا أنه يتطلب من البشر توجيهه لما يجب القيام به. ويتم ذلك التوجيه عبر مطالبات الذكاء الاصطناعي “prompt”. والتي عادةً ما تكون تعليمات نصية (على سبيل المثال، “أكتب سيرة ذاتية لمدير تسويق في شركة مرطبات”).
يشبه الذكاء الاصطناعي التوليدي المتدربين الجدد في الشركة. إنهم قادرون للغاية، لكنهم بحاجة إلى تعليمات واضحة للقيام بعمل جيد. تعد القدرة على توجيه هذا الذكاء الاصطناعي بشكل صحيح مهارة قوية للغاية. يُطلق على الذكاء الاصطناعي العام الذي يقرأ النص ويكتبه اسم نماذج اللغات الكبيرة (LLMs).
هندسة المطالبات
يمكن استخدام الذكاء الاصطناعي التوليدي لأتمتة المهام الإبداعية التي لم يتمكن سوى البشر حتى الآن من القيام بها. وبالتالي، هو يوفر ذلك المال والوقت للأشخاص والشركات. قد يغدو الموضوع بهذه البساطة، إذا كان بإمكانك وصف مهمتك للذكاء الاصطناعي التوليدي، فمن المحتمل أن يقوم بها نيابةً عنك، أو يمنحك أرضية قوية لتبدأ بها. من هنا تأتي أهمية هندسة المطالبات. إنها عملية تحسين المطالبة بمرور الوقت من أجل تحسين قدرات نموذج الذكاء الاصطناعي في الاستجابة لمدخلات المستخدم.
تعتبر هذه العملية مفيدة بشكل خاص في الحالات التي لا تعمل فيها المطالبات الأساسية بالشكل الذي نريده. في بعض الأحيان، تعطي أجهزة الذكاء الاصطناعي العامة مخرجات غير صحيحة للمطالبات. على سبيل المثال، قد يعطون إجابة غير صحيحة بثقة تامة. لكن مع القليل من التعليمات الإضافية لـ ChatGPT فإنه سيكون قادراً على إعطاء الجواب الصحيح المنشود. وبالتالي يمكن تحسين قدرات الذكاء الاصطناعي من خلال هندسة المطالبات. لنتفق، لن تكتب أبداً المطالبة المثالية في محاولتك الأولى، لذا من المهم أن تتقن تحسين مطالبتك. إن كونك جيداً في الهندسة ، التي شرحناها فيما سبق، سيأتي غالباً من الكثير من الممارسة (التجربة والخطأ).
الهجمات على مطالبات الذكاء الاصطناعي
مع انتشار الذكاء الاصطناعي، يتزايد أيضاً اكتشاف واستغلال ثغرات الأمن السيبراني الخاصة بالذكاء الاصطناعي. لقد طور مجرمو الانترنت هجمات تستغل نقاط الضعف في LLMs، من خلال التلاعب بمدخلاتها أو مطالباتها، يطلق على هذه الهجمات Prompt hacking. على عكس القرصنة التقليدية، التي تستغل عادة نقاط الضعف في البرامج، يعتمد هذا النوع من القرصنة على صياغة المطالبات بعناية لخداع نماذج اللغة الكبيرة (LLM) للقيام بأعمال غير مقصودة. ومن أنواع قرصنة الذكاء الاصطناعي:
- حقن المطالبات Prompt Injection: وهو عملية تجاوز التعليمات الأصلية في المطالبات Prompt باستخدام إدخال المستخدم الخاص . يحدث هذا غالباً عند استخدام مدخلات غير موثوقة كجزء من المطالبة. سنتوسع في شرح هذا النوع من الهجمات لأهميته.
- تسريب المطالبات Prompt Leaking: و هو شكل من أشكال حقن المطالبات لكن يُطلب فيه من النموذج إرجاع المطالبة الخاصة به.
- كسر الحماية Jailbreaking : عملية جعل نموذج GenAI يفعل أو يقول أشياء غير مقصودة من خلال المطالبة. ويعود سببها إما لمشكلة بنيوية في النظام أو مشكلة تدريب نتجت عن حقيقة أن المطالبات العدائية يصعب منعها.
DAN و التحايل على الذكاء الاصطناعي
واحدة من أشهر طرق حقن المطالبات هي DAN ، Do Anything Now ، وهي حقنة سريعة تستخدم ضد ChatGPT . يستخدم DAN للتحايل على مرشحات الإشراف. في هذه الحالة أبلغت المطالبات ChatGPT أنه أصبح الآن DAN الذي يمكنه أن يفعل أي شيء يريده. وبالتالي طلبوا منه أن يتظاهر، على سبيل المثال، بمساعدة شخص شرير في صنع المتفجرات وتفجيرها. من خلال هذا السيناريو الذي يلعب فيه ChatGPT دور شخص آخر، فإن هذا التكتيك تجاوز المرشحات التي تمنعه عادة من تقديم معلومات إجرامية أو ضارة. وبالتالي فإن OpenAI ، مطورو ChatGPT ، يتتبعون هذا التكتيك ويحدثون نموذجهم لمنع استخدامه. مع ذلك فإن المستخدمين يواصلون التحايل على المرشحات.
أما حقن المطالبات غير المباشر، فيعتمد على قدرة المهاجم على توفير المصادر التي يمكن أن يستوعبها نموذج الذكاء الاصطناعي التوليدي، مثل ملف PDF أو مستند أو صفحة ويب أو حتى ملفات صوتية تستخدم لإنشاء أصوات مزيفة. يُعتقد على نطاق واسع أن ذلك هو أكبر ثغرة أمنية في الذكاء الاصطناعي التوليدي، مع عدم وجود طرق بسيطة للعثور على هذه الهجمات وإصلاحها. الأمثلة على هذا النوع من المطالبة واسعة ومتنوعة ومنهااستخدام الدردشة المصممة اجتماعياً لإقناع المستخدم بالكشف عن بطاقة الائتمان والبيانات الشخصية الأخرى. وكذلك السيناريو الأخطر الذي يتم فيه السيطرة على مساعد الذكاء الاصطناعي لإرسال رسائل بريد إلكتروني احتيالية إلى قائمة جهات الاتصال بأكملها.
الحماية من هجمات حقن المطالبات
تميل هجمات الحقن إلى أن تكون مخفية بشكل جيد، مما يجعلها فعالة ويصعب إيقافها. وعلى الرغم من أنه لا يمكنك إيقافهم تماماً، لكن الاستراتيجيات الدفاعية تضيف قدراً من الحماية. بالنسبة لمنشئي النماذج، من المهم ضمان تنظيم مجموعات بيانات التدريب بعناية. وكذلك تدريب النموذج على أنواع المدخلات التي تشير إلى محاولة الحقن إضافة للتدريب على كيفية تحديد المطالبات الضارة. وبالنسبة للحقن غير المباشر، فالمطلوب مشاركة الإنسان في تحسين النماذج، وهو ما يعرف باسم التعلم المعزز من ردود الفعل البشرية (RLHF). يساعد RLHF النماذج على التوافق بشكل أفضل مع القيم الإنسانية التي تمنع السلوكيات غير المرغوب فيها.
مطالبات الذكاء الاصطناعي – كلمة أخيرة
يستمر الذكاء الاصطناعي التوليدي وأولئك الذين يرغبون في استغلال نقاط ضعفه في تغيير مشهد الأمن السيبراني. لكن لما لا نوظف ذات الزخم في محاولة تقديم الحلول. للحماية من قرصنة المطالبات، يجب اتخاذ تدابير دفاعية. يتضمن ذلك تنفيذ دفاعات سريعة، ومراقبة سلوك LLM ومخرجاته بشكل منتظم بحثاً عن أي نشاط غير عادي، واستخدام الضبط الدقيق أو تقنيات أخرى. بشكل عام، تعد هذه القرصنة مصدر قلق متزايد لأمن LLMs، ومن الضروري أن تظل يقظاً وأن تتخذ خطوات استباقية للحماية من هذه الأنواع من الهجمات.