يشير مصطلح الذكاء الاصطناعي التوليدي ChatGPT إلى أنظمة الذكاء الاصطناعي القادرة على إنشاء محتوى جديد ، مثل النصوص أو الصور أو الصوت.أحد المخاطر المحتملة تتعلق بالملكية الفكرية. قد تكون أنظمة الذكاء الاصطناعي التوليدية قادرة على إنشاء أعمال أصلية يصعب نسبها إلى منشئ معين مما قد يجعل من الصعب فرض حماية حقوق النشر أو براءات الاختراع لهذه الأعمال.
يشارك معكم روبودين هذا المقال الذي يعرض مخاطر الذكاء الاصطناعي ما يتعلق بالملكية الفكرية ومخاطر الموثوقية ، والمخاطر المتعلقة بالمسائل القانونية والأخلاقية.
لم تنضج بعد قوانين الذكاء الاصطناعي أو التشريعات المتعلقة بمحتوى الذكاء الاصطناعي التوليدي. يبدو أن ChatGPT و هو لا يزال في طور الانطلاق يواجه المخاطر التشريعية ومخاوف الامتثال.
الذكاء الاصطناعي التوليدي – التحديات القانونية
في الواقع لقد فات الأوان. يقودنا هذا إلى السؤال التالي الذي نوقش كثيراً حول القوانين الناظمة للذكاء الاصطناعي. يتداول خبراء الصناعة أسئلة تتعلق باستخدام المحتوى الذي تم إنشاؤه بواسطة Chat GPT. تتمحور الأسئلة حول مدى قانونية استخدام هذا المحتوى.
ينشأ هذا السؤال بسبب الآلية التي يقوم عليها تدريب أنظمة الذكاء الاصطناعي التوليدية. تعمل معظم خوارزمية التعلم الآلي على أساس تحديد أنماط البيانات وتكرار تلك الأنماط المكتسبة. لكن يتم تدريب Chat GPT من خلال تقنيات التعلم الخاضعة للإشراف وكذلك تلك الغير الخاضعة للإشراف. وبطبيعة الحال ، فإن كل المحتوى الذي يتم تدريب النموذج عليه ، تم إنشاؤه بواسطة المستخدم. وفي كثير من الحالات يجب أن تكون البيانات محمية بموجب حقوق النشر بطريقة أو بأخرى. المحتوى الذي نتحدث عنه هو المدخلات والمخرجات الناتجة من النموذج الذي يتم تدريبه على بيانات المستخدم.
يتمتع الذكاء الاصطناعي التوليدي بالقدرة على تكرار طريقة تفكير الشخص وبالتالي إنشاء المحتوى. خذ على سبيل المثال الرسامة Hollie Mengert التي اكتشفت أن أسلوبها يتم تقليده في إطار تجربة في كندا. تم تدريب النموذج باستخدام 32 قطعة من أعمال Mengert الأصلية لبضع ساعات. ونتيجة لذلك ، تمكن نموذج التعلم الآلي من تكرار أسلوب Mengert على مفهوم جديد. أبلغ أحد التقنيين الفنانة المعنية عما حدث فأكدت له أنها تعمل كفنانة منذ عام 2011 وأنه ليس من حق أي “شخص” آخر استغلال نتاجها الفني لإنشاء أشياء تحمل بصمتها و أسلوبها الفني الخاص دون منحه موافقتها.
يبدو ذلك بالفعل غير عادل لدرجة كبيرة. لكن السؤال هو: هل يمكن لتلك الفنانة أو كل هؤلاء الرسامين والكتاب وكتاب الأغاني الذين يتم نسخ أعمالهم أن يفعلوا أي شيء حيال ذلك؟
حقوق النشر
للإجابة على هذه الأسئلة حول انتهاكات حقوق النشر ، قدم اثنان من الخبراء رأيهما حول هذا الموضوع. على الرغم من أن أي حكم على الموضوع المذكور سابق لأوانه حتى الآن ، لم يفت الأوان بعد لبدء نقاش حول أثر الذكاء الاصطناعي التوليدي على مجتمع الفنانين. يرى بعض الخبراء أن هذه الأنظمة قادرة بشكل واضح على انتهاك حقوق المؤلف مما يعرضها لمواجهة تحديات قانونية خطيرة.
ومع ذلك ، يتبنى بعض الخبراء رأياً مغايراً يقترح أن أي شيء تم إنشاؤه بواسطة أنظمة الذكاء الاصطناعي التوليدية هو فوق القانون. يقدم كل من الفريقين الحجج الكفيلة يدعم رأيه. لن يمكن لأحد أن يدعي مسبقاً معرفة ما الذي سيقرره القضاء بهذا الخصوص.
أقترح أحد الأكاديميين المتخصصين في قوانين الذكاء الاصطناعي والملكية الفكرية (IP) أنه في خضم الجدل اللامتناهي حول انتهاك حقوق الطبع والنشر ، فإن هناك بعض الأسئلة الجوهرية الضرورية لتوضيح الصورة كاملة.
أولاً – هل يمكن حماية حقوق النشر لمخرجات نظام الذكاء الاصطناعي التوليدي؟ إذا كان الأمر كذلك ، فمن يملكها؟ مع الأخذ بالاعتبار تعدد المشاركين في إنشاء مخرجات من الذكاء الاصطناعي التوليدي ، مثل المطورين أو المشغلين.
ثانياً- إذا كان أي شخص يمتلك عملاً تحميه حقوق الطبع والنشر ، فهل يمكن استخدامه كمدخل لنموذج التدريب؟ و كذلك ما هي القيود القانونية التي يمكن وضعها على جمع البيانات؟ وما هي الإجراءات القانونية التي يمكن اتخاذها ضد أولئك الذين ينتهكون شروط جمع البيانات.
الذكاء الاصطناعي التوليدي – حقوق النشر
لدى العديد من الباحثين موقف مختلف عندما يتعلق الأمر بهذا السؤال. يتمايز الموقف حالياً بين البلدان. ففي في الولايات المتحدة مثلاً لن تكون هذه مشكلة كبيرة لأنه لا يتم رفع انتهاكات حقوق الطبع والنشر مباشرة إلى المحكمة. لذلك إذا كتب المستخدم طلب البحث فستكون النتيجة توضيحاً للطلب لا يكفي للحصول على حقوق الطبع والنشر هناك. لكن ستحتاج كخطوة أولى لتسجيل عملك للحصول على حقوق التأليف والنشر. بعدها يمكنك أن تقاضي شخصاً آخر ما بسبب أي انتهاكات. و بذلك فإن المحكمة هي التي ستقرر ما إذا كان سيتم فرض حقوق النشر أم لا.
وفقًا للخبراء ، فإن القوانين مختلفة قليلاً في المملكة المتحدة. تبدو هذه القوانين وقضايا حقوق التأليف والنشر أكثر ملاءمة للفنانين. ذلك لأن المملكة المتحدة هي إحدى الدول التي تقدم حقوق الطبع والنشر للأعمال التي يتم إنتاجها باستخدام الكمبيوتر. وبالتالي فإنه يوفر بعض الأسبقية لمنح حماية حقوق التأليف والنشر.
المخاطر الأمنية لـ Chat GPT
مع نماذج مثل Chat GPT ، أصبح من الأسهل لمجرمي الانترنت إنشاء رسائل بريد إلكتروني معقدة يصعب اكتشافها. يمكن للجهات الفاعلة في مجال التهديد شن عدد كبير من الهجمات الإلكترونية لأغراض متنوعة. دعونا نستكشف الاحتمالات:
هجمات التصيد الاحتيالي
ستصبح مثل هذه الهجمات أكثر تعقيداً مع رسائل البريد الإلكتروني الأكثر إقناعاً. تنشأ مخاوف جدية إذا تم استخدام الروبوت لأتمتة هجمات التصيد الاحتيالي. أهم هذه المخاوف: إنشاء رسائل البريد الإلكتروني وجمع المعلومات الحساسة. قد يؤدي ذلك إلى خسائر مالية وفوضى تتعلق بتحديد المسؤولين عن هذه الهجمات و من يجب إلقاء اللوم عليه.
ChatGPT والأنشطة الضارة
يمكن استخدام التكنولوجيا من قبل الفاعلين السيئين لتنفيذ مخططاتهم السيئة. وبالتالي ، هناك احتمال أن يتم استخدام ChatGPT للأنشطة الضارة بما في ذلك تنفيذ الهجمات الإلكترونية دون ترك أي أثر.
اختراق البريد الإلكتروني للأعمال (BEC)
تعد قرصنة البريد الإلكتروني للأعمال BEC إحدى الطرق التي يمكن من خلالها استخدام ChatGPT لإطلاق الهجمات. خصوصاً أن الـ Chat GPT هو نظام يعرف كيفية صياغة محتوى فريد و لديه المعرفة لتوليد أي نوع من الهجمات حسب طلب المستخدم. على سبيل المثال ، نموذج هجوم BEC لتحويل الرواتب payroll diversion هو أحد الهجمات التي تعتمد بشكل كبير على انتحال الهوية والهندسة الاجتماعية والإلحاح. مع Cha GPT.أصبح هذا النوع من الهجوم متاحاً أكثر. يبدو أن المخاطر الأمنية لا مفر منها حيث ترتفع أصوات الخبراء في جميع أنحاء العالم بشأن الذكاء الاصطناعي التوليدي وقدرته على إحداث الفوضى.
الانتحال باستخدام الذكاء الاصطناعي التوليدي
أدى ظهور ChatGPT لزيادة قضايا الانتحال بشكل يكاد يشكل كابوساً للمؤسسات التعليمية. من الرسامين إلى الكتاب إلى الأكاديميين، لدى الجميع تقريباً مخاوف بشأن هذا النموذج الجديد. يعتبر الانتحال قضية خطيرة في المؤسسات التعليمية عندما يتعلق الأمر بالمهام وبمشاريع الطلاب وغيرها من النشاطات الأكاديمية. من خلال إسناد المهام للطلاب، ستزداد مهارات التعلم. أثناء إجراء المهام ، يتعين على الطلاب تعلم العديد من الأشياء الجديدة.باستخدام أنظمة مثل ChatGPT يمكن للطلاب إنشاء محتوى و تقديمه على أنه عملهم الخاص. لن يشكل ذلك فقط قضية انتحال ولكن أيضا قضية أخلاقية.
السرقة الأدبية بسبب ChatGPT
يعتبر الـ ChatGptإحدى الحالات التي يتعين على المؤسسات البحث عن إجابة لها. قضية رئيسية أخرى هي الجوانب الأخلاقية لهذا النموذج. هل يُعتبر أخلاقياً تدريب النموذج بناءً على قطعة من كتابة شخص آخر؟ هل من الأخلاقي إنشاء محتوى بناءاً على أسلوب كتابة شخص آخر والسماح للطلاب بتقديمه إلى أساتذتهم الجامعيين؟
كلمة أخيرة
يبدو أن المعركة التشريعية و القانونية الخاصة بالـ Chat GPT قد بدأت للتو. في الوقت الذي يتم تقديم الذكاء الاصطناعي على أنه أداة من أجل خير البشرية تتصاعد المخاوف بشأن حماية النتاج الفكري للأكاديميين و الرسامين و الكتاب و مختصي الأمن. كذلك، بالنظر إلى المخاوف القانونية والتقنية والأخلاقية ، يبدو أن عدداً لابأس به من القوانين المتعلقة بالذكاء الاصطناعي يجب صياغتها وتمريرها قبل وضع Chat GPT موضع التنفيذ. يجب إصدار شيء مشابه للائحة العامة لحماية البيانات (GDPR) بعد التشاور بين المتخصصين في الصناعة والباحثين وخبراء التشريع. عندها فقط يمكن أن تكون الأدوات الحديثة مثل Chat GPT مفيدة للبشرية بالمعنى الحقيقي.