أهلاً بك في روبودين. وجودكم هنا مرحب به دائماً . لكن لأغراض هذا المقال نقول : شكراً للخوارزمية التي أوصلتكم لموقعنا. من الغريب أننا لا ننتبه لكمية البيانات الهائلة المتعلقة بحياتنا و التي تتم مراقبتها وتحليلها بواسطة الذكاء الاصطناعي لتقديم توصيات تدير سلوكياتنا و ربما تسيطر عليها يوماً بعد يوم. لكن في عصر الـ ChatGPT لا بد من الإجابة على بعض الأسئلة المتعلقة بتفاعل البشر و الذكاء الصنعي. و كيف يمكننا جسر الفجوة بين الاعتبارات الأخلاقية و بين الجهد المطلوب لإنشاء أنظمة موثوقة. بغض النظر عن إجاباتنا و عن مواقفنا من هذه القضية فإن المهم لنا جميعاً ألا نجازف بفقدان سيطرتنا على الذكاء الاصطناعي. وهو ما سينتج عنه، لو حدث، عزل الذكاء البشري وفصله عن قيمه الإنسانية الفريدة.
يتضمن نهج الذكاء الاصطناعي المرتكز على الإنسان human-centered AI التفاعل مع المستخدمين في جميع عمليات تطوير واختبار الخوارزمية. يوفر ذلك تجربة فعالة بين البشر والذكاء الصنعي. إنه يمثل النظام الذي يعمل باستمرار على تطوير التفاعل بين الذكاء الاصطناعي والبشر. محور هذا النظام هو الإنسان و هدفه أن يثري الخبرات البشرية و ليس أن يحل محلها. على الأقل هذا ما يدعيه مطوروه.
تركت القدرة الهائلة لـ ChatGPT العالم كله في حيرة من أمره. في الواقع ، إنه يحل كل من المشاكل العملية والمجردة. كما يكتب ويصحح التعليمات البرمجية ، وحتى لديه القدرة على المساعدة في فحص مرض الزهايمر. ومع ذلك ، كما هو الحال مع العديد من التقنيات الجديدة، فإن روبوت الدردشة الذي يعمل بنظام OpenAI AI معرض لخطر كبير من إساءة الاستخدام وفقاً للمقال الذي يشاركه روبودين معكم.
استخدام الذكاء الاصطناعي ChatGPT بشكل ضار
اكتشف باحثون من Check Point Software أنه يمكن استخدام ChatGPT لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي. عند دمجه مع Codex ، وهو نظام تحويل للغة الطبيعية من OpenAI. يمكن لـ ChatGPT تطوير ونشر التعليمات البرمجية الضارة. و فعلياً، أنشأ الباحثون سلسلة كاملة من البرامج الضارة بمساعدته. بدءاً من رسالة بريد إلكتروني تصيدية إلى مستند Excel يحتوي على رمز VBA [Visual Basic for Application] ضار. يمكن بالنتيجة تجميع البرنامج الضار بالكامل في ملف قابل للتنفيذ وتشغيله في جهاز الضحية. في الواقع، ينتج ChatGPT أساساً رسائل بريد إلكتروني تصيد وانتحال شخصية أفضل وأكثر إقناعاً من رسائل التصيد الاحتيالي الحقيقية التي نراها الآن.
فيما يتعلق بالأمر نفسه ، يقول أكاديميون أن ChatGPT يستطيع إنشاء نص برمجي قابل للتنفيذ. هناك أدوات أخرى للذكاء الاصطناعي لتوليد الكود ، وكلها تتحسن كل يوم. ربما يكون ChatGPT أفضل الأن في إنشاء نصوص للبشر . وقد يكون مناسباً بشكل خاص لإنشاء أشياء مثل رسائل البريد الإلكتروني الواقعية المخادعة . علاوة على ذلك ، اكتشف الباحثون أيضًا قراصنة يصنعون أدوات ضارة باستخدام ChatGPT لبيعها لسارقي المعلومات في أسواق الويب المظلم .
ما هي أدوات الذكاء الاصطناعي الأكثر إثارة للقلق؟
مازال استخدام أدوات [الذكاء الاصطناعي] بنجاح يتطلب بعض المعرفة التقنية. لكن نتوقع بمرور الوقت أنه سيصبح من الأسهل أخذ مخرجات هذه الأدوات وشن هجوم باستخدامها. ليس من الواضح إلى الأن ما إذا كان الذكاء الصنعي قادراً على صنع برامج ضارة أكثر إثارة للقلق من الأدوات التي طورها الإنسان والتي يتم توزيعها على نطاق واسع عبر الانترنت. لكن لن يمر وقت طويل قبل أن تطور هذه الأدوات هجمات أكثر تعقيداً، مع قدرة على إنشاء أنماط متغيرة بسرعة.
كذلك يمكن أن تنشأ المضاعفات أيضاً من عدم القدرة على اكتشاف ما إذا كان قد تم إنشاء الكود من خلال استخدام ChatGPT. لا توجد طريقة جيدة لتحديد أن برنامجاً معيناً أو برنامجاً ضاراً أو حتى بريداً إلكترونياً للتصيد الاحتيالي تمت كتابته بواسطة ChatGPT نظراً لعدم وجود توقيع خاص به.
البحث عن حل
إحدى الطرق التي تختارها OpenAI هي وضع علامة مائية على ناتج نماذج GPT. يمكن استخدام هذه العلامة لاحقاً لتحديد ما إذا كانت قد تم إنشاء المحتوى بواسطة الذكاء الاصطناعي أو البشر.
من أجل حماية الشركات والأفراد من هذه التهديدات الناتجة عن الذكاء الصنعي، من المهم استخدام تدابير الأمن السيبراني المناسبة. في حين أن الضوابط الأمنية الحالية لا تزال فعالة، فمن المهم الاستمرار في تطويرها وتعزيز تطبيقها. و للمفارقة، لقد بدأ الذكاء الاصطناعي (AI) في إحداث ثورة في مجال الأمن السيبراني. يشمل ذلك و لا يقتصر على، الكشف عن التهديدات والوقاية منها. والاستجابة التلقائية لحوادث أمن المعلومات. و تحليل سلوك المستخدم لتحديد الحالات الغير نمطية. يساعد ذلك في الإشارة إلى وجود تهديد أمني محتمل مما يساعد في الكشف عن التهديدات الداخلية ، مثل محاولة الموظفين سرقة البيانات.
كما يمكن للذكاء الاصطناعي استخدام تحليلات البيانات للتنبؤ بالتهديدات الأمنية المستقبلية ، انطلاقاً من تحليل أنماط الهجمات السابقة. إضافة لما سبق، يمكن للذكاء الاصطناعي تحليل شبكة وأنظمة و عمليات المؤسسة لتحديد نقاط الضعف والمخاطر المحتملة. عمل الباحثون أيضاً على طرق لاستخدام الذكاء الاصطناعي لاكتشاف نقاط الضعف في التعليمات البرمجية واكتشاف الهجمات. ونأمل أن تتمكن التطورات في جانب الدفاع السيبراني من مواكبة التحسن في قدرة المهاجمين ، ولكن يبقى ذلك غير واضح إلى الأن .
كلمة أخيرة
تعد ChatGPT تقنية رائعة ولديها القدرة على تحويل الذكاء الاصطناعي إلى حالة شعبية و جماهيرية واسعة. في الماضي،كان الذكاء الاصطناعي حكراً على اختصاصيي علوم الكمبيوتر أو الخوارزميات فقط. في حين أن ChatGPT والأنظمة الأخرى المدعومة من الذكاء الاصطناعي لديها القدرة على تغيير طريقة تفاعل الأفراد مع التكنولوجيا ، إلا أنها تحمل أيضاً بعض المخاطر ، لا سيما عند استخدامها بطرق خطيرة. الأن، بدأ الأشخاص الذين لا يتمتعون بالمهارات التقنية في فهم ماهية الذكاء الاصطناعي ومحاولة اعتماده في حياتهم اليومية. لكن السؤال الأكبر ، كيف سنستخدمه – ولأي أغراض؟