يكفي أن تتابع أخبار الحروب في منطقتنا لتعرف أهمية تقنية التعرف على الوجه (FRT) التي يجري توظيفها في مجالات لا يسعنا ذكرها في روبودين. شهدت هذه التقنية تطوراً سريعاً، حيث أصبحت أداة شائعة في حياتنا اليومية. من فتح الهواتف الذكية إلى تتبع الصور على وسائل التواصل الاجتماعي، وصولاً إلى المراقبة في الأماكن العامة والتحقق من الهوية في المطارات، يخبرنا ما سبق عن كيفية تفاعل المجتمعات مع التكنولوجيا. ومع ذلك، فإن هذا التحول يأتي مع مخاوف كبيرة تتعلق بالأخلاقيات والقانون والخصوصية، خاصة في عصر الذكاء الاصطناعي (AI) الذي زاد من قدرات أنظمة التعرف على الوجه.
الخصوصية في عصر الذكاء الاصطناعي
على الرغم من فوائدها، تثير تكنولوجيا التعرف على الوجه مخاوف عميقة تتعلق بالخصوصية. تتفاقم هذه المخاوف بسبب قدرة الذكاء الاصطناعي على معالجة كميات هائلة من البيانات البيومترية بسرعة وكفاءة، وغالباً دون علم أو موافقة الأفراد. وفيما يلي بعض المخاوف الرئيسة المتعلقة بالخصوصية:
غياب الشفافية
تعمل العديد من أنظمة التعرف على الوجه دون إبلاغ الأفراد بأن وجوههم يتم مسحها أو تخزينها، تحليلها ومشاركتها. كما أن الشركات والحكومات -في أغلب الأحيان- تفشل في تقديم معلومات واضحة حول كيفية معالجة تلك البيانات. هذا النقص في الشفافية يثير القلق حول كيفية استخدام هذه البيانات وما إذا كانت تُستخدم لأغراض غير أخلاقية
أمان البيانات
تعتبر بيانات الوجوه عرضة للخطر مثل أي بيانات بيومترية لأنه إذا تم اختراقها لا يمكن تغييرها، وهي بذلك تختلف عن كلمات المرور مثلاً. وبالتالي، يمكن أن تؤدي إلى سرقة الهوية. بالإضافة إلى ذلك، فإن العديد من أنظمة التعرف على الوجه لا تستخدم تشفيراً قوياً، مما يجعل هذا النوع من البيانات أكثر عرضة للاختراق.
استغلال التقنية
تتعرض الشركات الخاصة لانتقادات بسبب جمع بيانات الوجوه دون موافقة أصحابها. مثلاً، جمعت شركة Clearview AI مليارات الصور من وسائل التواصل الاجتماعي لبناء قاعدة بيانات ضخمة. هذه الممارسات ليست فقط انتهاكاً للخصوصية، ولكنها أيضاً تحدٍ للأخلاقيات المتعلقة بجمع البيانات واستخدامها.
تباين التشريعات
تختلف القوانين المتعلقة بالخصوصية بين الدول، حيث توجد في الاتحاد الأوربي ،مثلاً، قوانين صارمة تحمي البيانات البيومترية، بينما في بعض الدول العربية، لا توجد حماية كافية. هذا التباين يجعل من الصعب على الأفراد فهم حقوقهم وكيفية حماية بياناتهم. كما نلاحظ غياب إطار موحد يحكم تكنولوجيا التعرف على الوجه على مستوى العالم، بينما لدى الاتحاد الأوروبي تشريعات تحوكم الذكاء الاصطناعي، لا تزال أغلب دول العالم تواجه تحديات في هذا المجال. يضاف لما سبق عدم وجود آليات مراجعة مستقلة للخصوصية وتداخلها مع التكنولوجيا، مما يزيد من خطر سوء الاستخدام. على سبيل المثال، غياب الرقابة يمكن أن يؤدي إلى استخدام تكنولوجيا التعرف على الوجه بطرق غير أخلاقية، مما يثير القلق بشأن حقوق الأفراد.
تقنية التعرف على الوجه – حلول مقترحة
لتخفيف المخاطر المرتبطة بتقنية التعرف على الوجه، هناك حاجة إلى نهج متعدد الجوانب. فيما يلي بعض الحلول التي يمكن أن تساعد في معالجة هذه المخاوف:
- يجب على الحكومات سن قوانين واضحة وقابلة للتنفيذ تنظم استخدام تقنية التعرف على الوجه بحيث تتضمن هذه القوانين تعريف حالات الاستخدام المقبولة، ومتطلبات الموافقة، وحدود جمع البيانات والاحتفاظ بها، وفرض عقوبات على سوء الاستخدام أو الوصول غير المصرح به.
- ضرورة أن تكون الخصوصية جزءاً من تصميم أنظمة التعرف على الوجه. يتضمن ذلك استخدام تقنيات إخفاء الهوية، وتحديد جمع البيانات بما هو ضروري فقط، وضمان تخزين البيانات ونقلها بشكل آمن.
- يمكن أن تعزز الهيئات الرقابية المستقلة المساءلة من خلال إجراء تدقيقات ومراقبة الامتثال للقوانين بحيث تكون هذه الهيئات قادرة على التحقيق في الشكاوى وتقديم تقارير شفافة للجمهور.
- توعية الجمهور حول كيفية عمل تكنولوجيا التعرف على الوجه وحقوقهم المتعلقة بالبيانات البيومترية. يمكن أن تساعد حملات التوعية في تمكين الأفراد من اتخاذ قرارات أفضل والدعوة إلى حماية أقوى.
- تدريب نماذج الذكاء الاصطناعي المستخدمة في التعرف على الوجه على مجموعات بيانات متنوعة لتقليل التحيز. يجب على المطورين إجراء تقييمات تأثير لتقييم الآثار الأخلاقية لأنظمتهم قبل نشرها.
- يجب أن تكون تكنولوجيا التعرف على الوجه اختيارية، مما يتيح للأفراد القدرة على منح أو سحب الموافقة. وأن يكون لدى الأفراد الحق في الوصول إلى بياناتهم وحذفها وفهم كيفية استخدامها.
- يمكن استخدام تقنيات بديلة مثل المصادقة متعددة العوامل لتحقيق أهداف مماثلة دون المساس بالخصوصية. توفر هذه البدائل مستوى مقبول من الأمان دون الحاجة إلى جمع بيانات الوجه.
كلمة أخيرة
تعتبر تقنية التعرف على الوجه، المدعومة بالذكاء الاصطناعي، سلاحاً ذو حدين. بينما توفر الأمان والكفاءة، فإنها أيضاً تشكل مخاطر جدية على الخصوصية. مع الانتشار الواسع لهذه التقنية، يجب أن تتزايد جهودنا لتنظيم وإدارة استخدامها بشكل مسؤول. من المهم الوعي بالمخاطر المحيطة بتقنية التعرف على الوجه وأن نعمل معاً لضمان استخدامها بشكل أخلاقي وآمن. من خلال تعزيز الشفافية والمساءلة، يمكننا بناء مستقبل يوازن بين التطور التقني وحقوق الأفراد، مما يضمن أن تكون التقنية أداة للخير وليس للضرر.


