إذا أردنا تبسيط الأمور، يمكننا اعتبار الذكاء الاصطناعي كبرامج تعمل على حواسب عبر شبكات واسعة النطاق. وعلى هذا النحو، فهي عرضة لنفس أنواع الاختراق التي تتعرض لها أنظمة الكمبيوتر الأخرى. ولكن هناك أيضاً عمليات اختراق تكون أنظمة الذكاء الاصطناعي عرضة لها بشكل فريد . إنها أنظمة التعلم الآلي وهو مجال فرعي من الذكاء الاصطناعي، لكنه أصبح يهيمن عليه . في أنظمة التعلم الآلي، يتم تغذية “النماذج” بكمية هائلة من البيانات وإعطائها تعليمات لإيجاد حلول بأنفسها. تتضمن بعض هجمات التعلم الآلي سرقة “بيانات التدريب” المستخدمة لتعليم نظام التعلم الآلي، أو سرقة نموذج التعلم الآلي الذي يستند إليه النظام. تتضمن هجمات أخرى تكوين نظام التعلم الآلي لاتخاذ قرارات سيئة – أو خاطئة. يشارك معكم روبودين فيما يلي مزيداً من الأفكار حول هذا الموضوع اعتماداً على كتاب “A Hacker’s Mind”، لأحد أهم رواد الأمن السيبراني Bruce Schneier.
قرصنة أنظمة الذكاء الاصطناعي
يُعرف “التعلم الآلي المعادي-adversarial machine-learning ” بأنه مجموعة من الاختراقات. في بعض الأحيان، تتضمن هذه الاختراقات دراسة نظام التعلم الآلي بالتفصيل من أجل تطوير فهم كافٍ لكيفية عمله ونقاط ضعفه لصياغة المدخلات التي تستهدف تلك النقاط الضعيفة. على سبيل المثال، يمكن خداع نظام التعلم الآلي باستخدام مدخلات مصممة بعناية. في عام 2017، صمم باحثو معهد ماساتشوستس للتكنولوجيا سلحفاة لعبة بحيث تخدع مصنف صور الذكاء الاصطناعي ليعتقد أنها بندقية. وتشمل الأمثلة الأخرى ملصقات موضوعة بعناية، تبدو غير ضارة، مثبتة على علامة توقف تخدع مصنف الذكاء الاصطناعي وتدفعه للاعتقاد بأنها علامة حد السرعة، أو وضع ملصقات على طريق تخدع سيارة ذاتية القيادة. هذه كلها أمثلة نظرية، وفي حين نجح الباحثون باستخدام هذه الطريقة للتسبب في فشل السيارات في الاختبارات، إلا أنه لم يسجل -إلى الأن- أن صطدم أحد فعلياً بسيارة ذاتية القيادة نتيجة التعلم الآلي العدائي.
لا يجب أن يكون التعلم الآلي العدائي خبيثاً، ولا أن يقتصر على إعدادات المختبر. في الوقت الحالي، هناك مشاريع تعلم آلي عدائي تحاول اختراق أنظمة التعرف على الوجه حتى يتمكن المحتجون وغيرهم من التجمع علناً دون خوف من التعرف عليهم من قبل الشرطة. وبالمثل، يمكنك تخيل مستقبل حيث تستخدم شركات التأمين أنظمة الذكاء الاصطناعي لاتخاذ قرارات صرف المطالبات. قد يلجأ الطبيب إلى اختراق نظام ذكاء اصطناعي لضمان موافقة التأمين على مريض يحتاج إلى دواء أو إجراء معين.
التلاعب بأنظمة الذكاء الاصطناعي
تتضمن عمليات الاختراق الناجحة الأخرى تغذية نظام التعلم الآلي بمدخلات محددة مصممة لإحداث تغييرات في النظام. في عام 2016، قدمت شركة مايكروسوفت روبوت محادثة، Tay، على Twitter. تم تصميم أسلوب المحادثة الخاص به على غرار أنماط الكلام لفتاة مراهقة، وكان من المفترض أن يكتسب تعقيداً أكثر مع تفاعله مع الناس وتعلم أسلوب المحادثة الخاص بهم. في غضون أربع وعشرين ساعة، نسقت مجموعة على منتدى المناقشة 4Chan ردودها على Tay. لقد غمروا النظام بتغريدات عنصرية وكارهة للنساء ومعادية للسامية، وبالتالي تحول Tay إلى عنصري وكاره للنساء ومعادٍ للسامية. تعلم Tay منهم، و- دون فهم فعلي – ردد كالببغاء ما تعلمه.
أنظمة الذكاء الاصطناعي عبارة عن برامج كمبيوتر، لذلك لا يوجد سبب للاعتقاد بأنها لن تكون عرضة لذات الاختراقات التي تكون برامج الكمبيوتر الأخرى عرضة لها. لا يزال البحث في مجال التعلم الآلي المعادي في مراحله الأولى من التطوير، لذا لا يمكننا أن نقول بشكل قاطع ما إذا كانت أي من الهجمات المعادية التي تم شرحها مسبقاً ستكون سهلة أو صعبة، أو قياس مدى فعالية التدابير الأمنية المضادة. إذا كان تاريخ اختراق الكمبيوتر دليلاً، فستكون هناك نقاط ضعف قابلة للاستغلال في أنظمة الذكاء الاصطناعي في المستقبل المنظور. هناك دائمًا أشخاص يريدون اختراقها لتحقيق مكاسب شخصية.
الشيء الذي يميز هذا النوع من الاختراقات أن النتائج واضحة. تتحطم السيارات. يتم تصنيف سلحفاة بشكل خاطئ على أنها بندقية. يتصرف تاي مثل العنصري الكاره للنساء. سنرى ذلك يحدث، ونأمل أن يتم إصلاح أنظمة التعلم الآلي واستعادة عملها إلى حالة أكثر منطقية.
تطبيقات الذكاء الاصطناعي
هناك سلسلة من الاختراقات التي يمكن تخيلها، والتي تصنف ،وفق عمقها، من الواضحة إلى غير المرئية. نحن أكثر قلقاً بشأن الهجمات التي تكون نتائجها أكثر دقة وأقل وضوحاً. قد لا تتصادم السيارات، ولكنها قد تقود بشكل غير منتظم بعض الشيء. وقد لا تتحول برامج المحادثة الآلية إلى عنصريين كاملين، ولكنها قد تصبح أكثر ميلاً إلى التشكيك بصحة مواقف حزب سياسي معين. وقد يتوصل المتسللون إلى عبارة لإضافتها إلى طلبات الالتحاق بالجامعات والتي سيتم من خلالها تضليل الذكاء الاصطناعي الذي يفرز هذه الطلبات بحيث ترفعهم إلى فئة أفضل. طالما كانت النتائج دقيقة والخوارزميات غير معروفة لنا، فكيف يمكن لأي شخص أن يعرف أنها تحدث؟
إن أنظمة الذكاء الاصطناعي لها تأثير كبير على الأفراد، أو تؤثر على حياة الشخص أو جودة حياته أو سمعته . نحن بحاجة إلى ضمان أن أنظمة الذكاء الاصطناعي ليست عنصرية أو منحازة . بدون القدرة على التفسير، يمكننا بسهولة الحصول على نتائج مماثلة لتلك التي تم إنشاؤها بواسطة نظام الذكاء الاصطناعي الداخلي لشركة أمازون لفحص طلبات العمل. تم تدريب هذا النظام على عشر سنوات من بيانات التوظيف الخاصة بالشركة، ولأن صناعة التكنولوجيا يهيمن عليها الذكور، فقد علم نظام الذكاء الاصطناعي نفسه أن يكون متحيزاً جنسياً، ويصنف السير الذاتية في مرتبة أقل إذا تضمنت كلمة “نسائية” أو إذا تخرج المتقدم من كلية خاصة بالسيدات فقط.
العدالة مقابل التحيز
كان ذلك منحازاً وغير عادل بشكل واضح، وفقد المسؤولون التنفيذيون في أمازون حماسهم للمشروع وألغوا النظام بمجرد إدراكهم لما كان يحدث. لقد واجهوا مشكلة صعبة، وربما حتى مستعصية على الحل، لأن هناك تعريفات متناقضة متعددة للعدالة. فما يعتبره شخص عادلاً ليس بالضرورة أن يراه شخص آخر عادلاً أيضاً. هل النظام العادل لتحديد القبول هو نظام لا يميز بين الجنسين، أو نظام يصحح عمداً التحيزات الجنسية السابقة، أو نظام يمنح القبول للجنسين بنسبة عادلة. أو نظام يوفر تكافؤ الفرص بين الجنسين.
محاكاة القرار البشري
إذا كان نظام الذكاء الاصطناعي قادراً على تبربر منطقه لتقديم توصية توظيف معينة، فسنكون أكثر قدرة على التدقيق في عملية اتخاذ القرار. وبالتالي سنكون أكثر ثقة في هذا النظام في مواقف أكثر دقة، مثل “هل تشير هذه الأشعة السينية إلى ورم؟”
من ناحية أخرى، فالقرارات البشرية ليست بالضرورة قابلة للتفسير بسهولة. بالتأكيد، يمكننا أن نعطي البشر هذه التبريرات، لكن الأبحاث تشير إلى أنها تبريرات بعد وقوع الفعل أكثر منها تفسيرات فعلية. لذا ربما يكون الحل ببساطة هو النظر إلى النتائج. عندما تقرر المحاكم ما إذا كان سلوك قسم شرطة معين عنصرياً، فإنها لا تفتح جماجم ضباط الشرطة أو تطلب منهم تفسيرات لسلوكهم. بل تنظر إلى النتائج وتتخذ القرار بناءاً عليها.
في تجربة أخرى، كان من الصعب على الروبوتات أن تتبع أوامرها في محاكاة لحالة طوارئ . وفي تجربة محددة، ألتزم جميع المشاركين نصيحة روبوت يعمل كدليل، على الرغم من أنهم لاحظوا قبل لحظات فقط أن مهاراته متواضعة. وكانت درجة الثقة التي وضعوها في هذه الآلة مذهلة. فعندما أشار الروبوت إلى غرفة مظلمة بلا مخرج واضح، أطاعه غالبية الناس، بدلاً من الخروج بأمان من الباب الذي دخلوا منه. وأجرى الباحثون تجارب مماثلة مع روبوتات أخرى بدت فاشلة. ومرة أخرى، اتبع المشاركون توجيهات الطوارئ لهذه الروبوتات، على ما يبدو تخلوا عن فطرتهم السليمة. ويبدو أن الروبوتات قادرة بشكل طبيعي على اختراق ثقتنا.
كلمة أخيرة
إن الروبوتات المجسمة هي تقنية مقنعة عاطفياً، وستعمل أنظمة الذكاء الاصطناعي على تضخيم جاذبيتها. وبما أن الذكاء الاصطناعي يقلد البشر، أو حتى الحيوانات، فإنه سينتحل جميع الآليات التي يستخدمها البشر لتقييم بعضهم البعض ويبتكر طرقاً جديدة لاختراق هذه الآليات. عندما تتواصل الروبوتات بالعين، وتتعرف على الوجوه، وتحاكي الإيماءات البشرية، فإنها تظهر النوع من السلوك الذي يربطه الناس بالشعور والنوايا والعواطف”. وهذا يعني أنها تخترق أدمغتنا. لن نتعامل مع الذكاء الاصطناعي باعتباره إنساناً فحسب. بل سيتصرف أيضا كإنسان بطرق مصممة عمداً لخداعنا. وسوف يستخدم الاختراقات المعرفية لتحقيق ذلك.