الذكاء الاصطناعي SORA – المارد الذي تخاف منه هوليود

أطلقت OpenAI منتجها الجديد SORA هذا الأأسبوع. روبودين في هذا المقال عن الذكاء الاصطناعي SORA و تأثيره عالمياً و مخاطره الأمنية المحتملة

899 مشاهدة
6 دقائق
امرأة أنيقة تسير في أحد شوارع طوكيو - لقطة من فيديو منشئ باستخدام SORA

منذ أيام، أطلقت OpenAI منتجها الجديد SORA و الذي يمثل تقدماً نوعياً في مجال الذكاء الاصطناعيAI. تستخدم الأداة، التي كشفت عنها الشركة يوم الخميس، الذكاء الاصطناعي التوليدي لإنشاء مقاطع فيديو قصيرة على الفور بناءاً على أوامر مكتوبة. يتحدث روبودين في هذا المقال عن الذكاء الاصطناعي SORA و تأثيره على مشهد الذكاء الاصطناعي. SORA ليس أول أداة في هذا النوع من التكنولوجيا. لكن محللي الصناعة يشيرون إلى الجودة العالية لمقاطع الفيديو التي تعرضها. كما يلاحظون أن تقديمها يمثل قفزة كبيرة لكل من OpenAI ومستقبل أدوات تحويل النص إلى فيديو بشكل عام.

مازال المارد في القمقم

يمكن لـ SORA إنشاء مقاطع فيديو تصل مدتها إلى دقيقة واحدة مع الحفاظ على الجودة المرئية والالتزام بطلبات المستخدم. هذا الأسبوع، أصبح Sora متاحاً على نطاق ضيق لتقييم الأضرار أو المخاطر المتعلقة به. كما منحت open AI أيضاً إمكانية الوصول حالياً إلى عدد من الفنانين التشكيليين والمصممين وصانعي الأفلام. الهدف هو الحصول على تعليقات حول كيفية تطوير النموذج ليكون أكثر فائدة للمحترفين المبدعين. عادة تشارك open AI نتائج التقدم الذي وصلت إليه في أبحاثها مع ممثلين عن المجتمع للحصول على تعليقات منهم. و كذلك لإعطاء الجمهور فكرة عن قدرات الذكاء الاصطناعي التي تلوح في الأفق.يستطيع Sora إنشاء مشاهد معقدة بشخصيات متعددة وأنواع محددة من الحركة وتفاصيل دقيقة للموضوع والخلفية. لا يفهم النموذج SORA ما طلبه المستخدم عبر النص الذي كتبه فحسب، بل يفهم أيضاً كيفية وجود هذه الأشياء وترابطها في العالم المادي.

يتمتع النموذج بفهم عميق للغة، مما يمكنه من تفسير المطالبات بدقة وإنشاء شخصيات مقنعة تعبر عن المشاعر النابضة بالحياة. يمكن لـ Sora أيضاً إنشاء لقطات متعددة في مقطع فيديو واحد يتم إنشاؤه بدقة مع الشخصيات والأسلوب المرئي.

لا تخفي Open AI أن النموذج الحالي لديه نقاط ضعف. قد يجد صعوبة في محاكاة فيزياء مشهد معقد بدقة، وقد لا يفهم حالات محددة من الربط بين السبب والنتيجة. على سبيل المثال، قد يأخذ شخص ما قضمة من كعكة، ولكن بعد ذلك، قد لا يكون هناك علامة قضمة على الكعكة. قد يخلط النموذج أيضاً بين التفاصيل المكانية المقدمة له. على سبيل المثال، الخلط بين اليسار واليمين. وقد يواجه صعوبة في تقديم الأوصاف الدقيقة للأحداث التي تحدث مع مرور الوقت، مثل اتباع مسار معين للكاميرا.

معايير الأمان في الذكاء الاصطناعي SORA

أعلنت open AI أنها اتخذت و ستتخذ العديد من خطوات السلامة المهمة قبل إتاحة Sora للعموم. كما أنها تجري حالياً عبر الفريق الأحمر Red team و خبراء آخرين تدقيقاً للتأكد من قدرة SORA على مجال الانتباه إلى المعلومات الخاطئة. إضافة للمحتوى الذي يحض على الكراهية، والتحيز. كما تبني OpenAI أدوات للمساعدة في اكتشاف المحتوى المضلل مثل معرفة متى تم إنشاء مقطع فيديو بواسطة Sora و على التوازي وبالإضافة إلى تطوير تقنيات جديدة استعداداً لإطلاق الأداة للاستخدام العام فإن SORA تستفيد من أساليب السلامة الحالية التي تحكم منتجات OpenAI.

على سبيل المثال، سيتم فحص ورفض مطالبات إدخال النصوص التي تنتهك سياسات الاستخدام. مثل تلك التي تطلب العنف الشديد أو المحتوى اللا أخلاقي أو الصور التي تحض على الكراهية أو تلك التي تستنسخ صور المشاهير أو تنتهك الملكية الفكرية للآخرين. كما سيتم إشراك صناع القرار والمعلمين والفنانين حول العالم لفهم مخاوفهم وتحديد حالات الاستخدام الإيجابي لهذه التكنولوجيا الجديدة. لكن الشركة أكدت كذلك أنه على الرغم من الأبحاث والاختبارات المكثفة، فإنه لا يمكن التنبؤ بكل الطرق المفيدة التي سيستخدم بها الأشخاص التكنولوجيا لدى OpenAI و لا جميع الطرق التي سيسيء بها الناس استخدامها. ولهذا السبب فإن التعلم من الاستخدام الواقعي يعد عنصراً حاسماً في إنشاء وإطلاق أنظمة ذكاء اصطناعي أكثر أماناً بمرور الوقت.

كيف يعمل الذكاء الاصطناعي SORA ؟

Sora هو نموذج ذكاء صنعي يحول النصوص إلى مقاطع فيديو. تصل مدة المقاطع حالياً إلى 60 ثانية بناءاً على مطالبات مكتوبة باستخدام الذكاء الاصطناعي التوليدي. كما يمكنه أيضاً إنشاء فيديو من صورة ثابتة موجودة. كما نعلم فإن الذكاء الاصطناعي التوليدي هو فرع من الذكاء الاصطناعي يمكنه إنشاء شيء جديد. تشمل الأمثلة على ذلك بوتات الدردشة، مثل ChatGPT من OpenAI، ومولدات الصور مثل DALL-E. يعد الحصول على نظام ذكاء اصطناعي لإنشاء مقاطع فيديو أمراً أحدث وأكثر تعقيداً ولكنه يعتمد جزئياً التقنيات نفسها.

Sora ليس متاحاً للاستخدام العام بعد. و لكن Open AI مهتمة بآراء الناس لتطوير منتجها حتى أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، استخدم منصة X -تويتر سابقاً- ليطلب من مستخدمي وسائل التواصل الاجتماعي مشاركته بأفكار يمكنها تطوير SORA

المخاطر المحتملة

على الرغم من أن قدرات SORA تبدو مدهشة حتى الأن، إلا أن القلق بشأن الآثار الأخلاقية والمجتمعية لاستخدامات الفيديو التي يولدها الذكاء الاصطناعي لا يزال قائماً أيضاً. يتخوف بعض الأمريكيين من تأثير هذه نموذج الذكاء الصنعي الجديد على الانتخابات مثلاً وكذلك مخاوف استخدامه في الاحتيال والدعاية والمعلومات المضللة. علماً أنه يوم الجمعة الماضي و في مؤتمر ميونيخ للأمن، تعهدت OpenAI و 19 شركة تكنولوجيا أخرى بالعمل معاً بشكل طوعي لمكافحة التزييف العميق للانتخابات الناتج عن الذكاء الاصطناعي.

بشكل عام فإن العوامل السلبية للذكاء الاصطناعي التوليدي تشكل أحد أهم المخاوف هذا العام. إنها باختصار قضية جوهرية سيتعين على كل شركة وكل شخص مواجهتها. حتى الأن لا تزال شركات التكنولوجيا هي صاحبة القرار عندما يتعلق الأمر بإدارة الذكاء الاصطناعي ومخاطره، بينما تسعى تعمل الحكومات في جميع أنحاء العالم على اللحاق بالركب. في كانون الأول-2023 ، وضع الاتحاد الأوروبي قانوناً يحوكم الذكاء الاصطناعي، لكن القانون لن يدخل حيز التنفيذ إلا بعد مرور عامين.

في الوقت الحالي، لا تقدم Open AI أي جداول زمنية أو تفاصيل إضافية حول موعد إتاحة Sora للعموم لكن يمكنكم عبر متابعة روبودين البقاء على إطلاع بأي مستجدات حول هذا الموضوع.

شارك المقال
اضف تعليق

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *