يشعر الناس بالحماس إزاء إمكانات الذكاء الاصطناعي وهم محقون في ذلك، لكنهم أيضاً يجب أن يشعروا بالقلق. فكل تقدم تكنولوجي كبير له جانب مظلم محتمل. أضاف الذكاء الاصطناعي بصمته الخاصة على كيفية عيشنا وعملنا ولعبنا. وبالتالي، فمن الإنصاف أن نقول إن مخاطر وفوائد التكنولوجيا متداخلة بشكل لا يمكن فصله. ومع ذلك، فإن التساؤل عما إذا كانت الفوائد تفوق المخاطر مضيعة للوقت. الزمن لن يعود للوراء، والابتكارات التكنولوجية لا تعرف التراجع ولديها فقط خط سير واحد، إلى الأمام. ولذلك، نحن بحاجة إلى أن نسأل عما يمكننا القيام به للحد من هذه المخاطر بشكل استباقي مع الحفاظ على فوائد الذكاء الاصطناعي للمجتمع وتعزيزها. وهذه المهمة تتطلب تحولاً كبيراً في طريقة التفكير يشمل الجميع من مبتكري الذكاء الاصطناعي والشركات الكبرى وصولا إلى الجهات التنظيمية وحتى الأفراد. سوف نحتاج إلى العمل سوية لرسم ملامح العلاقة بين الذكاء الاصطناعي وخصوصية البيانات.
تحديات الذكاء الاصطناعي وخصوصية البيانات
هناك الكثير من الدراسات التي تحدد المخاطر المصاحبة للذكاء الاصطناعي، والتي تندرج معظمها في إحدى التصنيفات التالية:
بيانات التدريب
تتمتع أنظمة الذكاء الاصطناعي بشهية كبيرة للبيانات. إن حاجتها إلى استيعاب وتحليل مجموعات البيانات الكبيرة والمتنوعة تعني بالضرورة أن مطوري الذكاء الاصطناعي يواجهون مجموعة من المخاطر كلما تم إنشاء أصول بيانات هامة بما فيه الكفاية. هناك أسئلة تتعلق بالتخزين والاستخدام والوصول. وبالتالي، يجب حماية البيانات من الجهات الخارجية السيئة. وهو أمر نعرفه جميعاً. ولكن يجب أيضاً حمايتها من الوصول غير المصرح به أو سوء الاستخدام. يزيد الذكاء الاصطناعي من تعقيد الأمن لأن أدوات الذكاء الاصطناعي أصبحوا قادرين بشكل متزايد على اتخاذ قراراتهم الخاصة تلقائياً حول ما يجب فعله بأصول البيانات التي يمكنهم الوصول إليها.
الذكاء الاصطناعي وخصوصية البيانات – التحليل العميق
تتمتع تقنيات الذكاء الاصطناعي بقدرة غير مسبوقة على تحليل مجموعات البيانات الضخمة. كما تستطيع إجراء استنتاجات معقدة. وهو ما يمكن أن يجعلها أدوات مراقبة قوية، حتى عن غير قصد. لقد رأينا بالفعل أمثلة واضحة على مراقبة الذكاء الاصطناعي باستخدام برامج التعرف على الوجه. ولكن القوة الحقيقية والمخاطر للذكاء الاصطناعي المتطور تكمن في قدرته على استخلاص استنتاجات دقيقة حول الأفراد بناءً على مجموعة واسعة من نقاط البيانات التي تبدو غير ذات صلة. مثل هذه القدرات ليست مجرد خطر بسبب الجهات الفاعلة السيئة المحتملة. بدلاً من ذلك، يمكن لهذه القدرات الاستدلالية الكشف عن معلومات حساسة عن غير قصد في سياق أنشطة مثل تقسيم العملاء سلوكياً.
إساءة استخدام الذكاء الاصطناعي
سوف يعمل الذكاء الاصطناعي على تسريع كل القطاعات تقريباً، بما في ذلك الاحتيال. نحن نرى ذلك بالفعل مع استنساخ الأصوات والتزييف العميق. يمكن اليوم استخدام الذكاء الاصطناعي لإنشاء رؤية مشوهة للعالم، ثم نشر هذه الرؤية بطريقة واسعة النطاق أو مستهدفة للغاية اعتماداً على رغبة الجهات الفاعلة السيئة . إن متجهات الهجوم (attck vectors) كثيرة بحيث لا يمكن إحصاؤها، وتتراوح من الاحتيال عبر البريد الإلكتروني إلى افتعال النزاعات السياسية أو تأجيجها. باختصار، يمكن للذكاء الاصطناعي أن يكون أداة فعالة جداً في خدمة الشر.
وإلى جانب تلك العوامل، هناك قائمة طويلة من نواقل التهديد (Threat vectors) المحتملة التي قد تبرر ظهور فئات إضافية مستقبلاً. لكن فيما يتعلق بموضوع هذا المقال، فمن المهم بشكل أساسي أن نفهم التداخل بين الذكاء الاصطناعي وخصوصية البيانات من حيث المخاطر والأمن وهو ما يتخذ أشكالاً متعددة، ويستفيد من نقاط ضعف قديمة بينما ينشئ نقاط ضعف جديدة. ونظراً لاتساع مساحة المخاطر فمن الضروري تضافر الجهود لمعالجتها.
تخفبف مخاطر الذكاء الاصطناعي
يمكننا ،مجازاً، اعتبار أن الذكاء الاصطناعي مازال في بداياته النسبية كتكنولوجيا، وكذلك هي الجهود المبذولة لحماية الخصوصية. فعلى المستوى التنظيمي، نشهد جهوداً من عدد من الهيئات الوطنية والدولية للبدء في ترسيخ حماية الخصوصية وتنظيم الذكاء الاصطناعي إلى حد ما. صدرت العديد من القوانين حول العالم والتي تصب في مصلحة المدافعين عن الخصوصية و في إطار قوننة الذكاء الاصطناعي ومكافحة انتحال الشخصيات باستخدام تلك التقنية. كما تشكل الأمم المتحدة هيئة استشارية بشأن الذكاء الاصطناعي. وبصرف النظر عن الحكومات، تعمل المؤسسات البحثية والعلمية على تنسيق جهودها لبناء إطار أخلاقي يحكم الذكاء الاصطناعي. وتتلاقى تلك الجهود مع أسس الحوكمة والضوابط الأخلاقية التي يضعها مطورو أنظمة الذكاء الاصطناعي.
من الواضح أن هناك رغبة كبيرة في تعزيز الأمن والخصوصية باعتبارها جزءاً من نسيج الذكاء الاصطناعي. ولكن هذه الجهود لا تزال في مراحلها الأولى، ومجزأة بين شركات التكنولوجيا الكبرى والتي غالباً ما تكون غير شفافة. في الوقت الحالي، نحن مضطرون للاعتماد على تشريعات الخصوصية وحماية البيانات الحالية (على سبيل المثال، GDPR، HIPAA وما إلى ذلك).
في حين أن العديد من تلك الأطر التنظيمية تعتبر جيدة بالمجمل إلا أنها لم تصمم أساساً لمواجهة التحديات الفريدة التي يفرضها الذكاء الاصطناعي – وحتى لو كانت كذلك، فإنها ستوفر خليطاً غير متجانس من الحماية. يعني ما سبق، أننا بعيدون كل البعد من رؤية عالمية موحدة لحماية الخصوصية من مخاطر الذكاء الاصطناعي. وبغض النظر عن مدى حاجتنا لهذه الرؤية، فإننا بحاجة ماسة لإعطاء أهمية أكبر للخصوصية في كل مجالات حياتنا.
تنسيق جهود المدافعين
إن المخاطر الشاملة المرتبطة بالذكاء الاصطناعي تتطلب استجابة شاملة، مما يعني أن مبتكري الذكاء الاصطناعي والحكومات والهيئات التشريعية و الرقابية يجب أن يعملوا معاً بشكل متسق. علماً أن المشرعين والمراقبين ليسوا خبراء في هذا المجال المستجد نسبياً، وبالتالي سوف يحتاجون إلى المساعدة والتوجيه وبناء علاقة شفافة مع مطوري الذكاء الاصطناعي. وفي ذات السياق، قد لا يكون مبتكرو الذكاء الاصطناعي وغيرهم من الخبراء الفنيين على معرفة كافية بأدوات الجهة التنظيمية والآثار المترتبة على استخدامها أو عدم استخدامها. وبالتالي، فمن الضروري تعاون كلا الجانبين مع بعضهما البعض لإنجاز هدفين رئيسين وهما:
الخوف من الأسوأ
حماية البيانات بشكل أفضل من خلال الاعتراف بأن اتفاقية المستخدم الخاصة بالبيانات (على سبيل المثال، الاشتراك أو عدم الاشتراك) غير كافية. وفي المستقبل، من الضروري أن نتحرك بشكل متزايد نحو نماذج تمنح سيطرة دقيقة على جمع البيانات ومشاركتها. وكجزء من ذلك، نحتاج إلى طرق مبتكرة تسمح للمستخدمين بالتحكم بشكل استباقي في بصمة بياناتهم بطريقة مركزية بدلاً من التنقل عبر عدد لا يحصى من “اتفاقيات” الموافقة الفردية مع مواقع الويب والعلامات التجارية وما إلى ذلك. إن هذا التحول يعتبر نموذجياً و من شأنه أن يقلل بشكل كبير من إمكانية تحول الذكاء الاصطناعي لأداة تستخدم لمراقبة الأفراد أو اختراقهم أو المساعدة في الاحتيال عليهم.
مستقبل الذكاء الاصطناعي وخصوصية البيانات
ماذا يحدث إذا تطور الذكاء الاصطناعي بسرعة إلى ذكاءات أكثر ذكاءاً واقتراباً من النموذج البشري؟ حتى على افتراض أن كل شيء يسير على ما يرام، فإن ذلك يطرح مشكلة جديدة. سنواجه “أزمة أصالة – authenticity” كبرى. سيكون من الصعب، إن لم نقل من المستحيل، التمييز بين ما هو حقيقي وما تم إنشاؤه بواسطة الذكاء الاصطناعي. وكذلك تلمس الفرق قانونياً أو أخلاقياً. يبدو الأمر وكأنه خيال علمي، لكنه في الواقع نتيجة منطقية للغاية للمسار الذي نسلكه. إن فهم هذا العالم وحماية مفاهيم الملكية الفكرية والخصوصية يتطلب أن يكون كل شيء موقّعاً ومنسوباً لمنشئه بشكل لا يمحى. وبغض النظر عن التفاصيل، فالأشياء تتغير بسرعة أكبر مما يمكننا أن نفهمه، وهي تتحرك في اتجاهات لم نكن لنتصورها قط قبل فترة ليست بالبعيدة. والتغيير الجذري يجلب معه مخاطر جذرية، وكذلك، فإن تلك المخاطر الجذرية تتطلب بدورها تغييرات جذرية من أجل حمايتنا في المستقبل.
كلمة أخيرة
من المفيد لنا جميعاً أن نتبنى صعود الذكاء الاصطناعي كمحفز لإعادة النظر في بعض افتراضاتنا الأكثر جوهرية حول كيفية حماية البيانات وكيفية الحفاظ على الخصوصية الرقمية. إنها مهمة كبرى، لكننا قادرون على القيام بها.