“سورا” ستسمح قريبًا لصانعي الأفلام بإنشاء جميع أنواع مقاطع الفيديو من الصفر

أثار إعلان شركة الذكاء الاصطناعي OpenAI عن أداة “سورا” Sora لتحويل النصوص إلى فيديوهات، المخاوف حول انتشار مقاطع فيديو “التزييف العميق” Deepfake التي تقوض ثقة الأشخاص في مصداقية عدد كبير من الصور والفيديوهات التي يتم تداولها عبر منصات التواصل الاجتماعي.

وأطلقت شركة OpenAI، المطورة لروبوت الدردشة الشهير  ChatGPT هذه الأداة التي تعمل بالذكاء الاصطناعي، ويمكنها إنشاء مقاطع فيديو واقعية للغاية مدتها 60 ثانية بناءً على رسالة نصية بسيطة.

وذكرت صحيفة “واشنطن بوست” الأمريكية، أن هذه الأداة تعتبر قفزة إلى الأمام في جودة مقاطع فيديو الذكاء الاصطناعي و”التزييف العميق” التي تم استخدامها بالفعل لخداع الناخبين حول العالم.

وذكرت OpenAI في مدونتها أن نموذجها “سورا”، يستطيع أيضًا أن ينتج فيديو مستوحى من صورة ثابتة أو أن يضيف محتوى بصريا على فيديوهات متوفرة أصلا.

وأضافت أن الأداة الجديدة ستكون متاحة في البداية فقط لمجموعة صغيرة من الفنانين وصانعي الأفلام، الباحثين الذين يحاولون إيجاد طرق يمكن من خلالها استخدام أداة الذكاء الاصطناعي لأغراض ضارة.

وتعتمد أداة “سورا” على التقنية المستخدمة في أداة DALL-E لإنشاء الصور من OpenAI، حيث تفسر مطالبة المستخدم النصية، وتوسعها إلى مجموعة أكثر تفصيلاً من التعليمات، ثم يستخدم نموذج الذكاء الاصطناعي المدرب على الفيديو والصور لإنشاء الفيديو الجديد.

ما هو التزييف العميق؟

والتزييف العميق هو تقنية تعتمد على الذكاء الاصطناعي لإنشاء مقاطع فيديو مزيفة تبدو حقيقية. ويتم ذلك عن طريق دمج صور أو مقاطع فيديو لشخصين معًا لإنشاء مقطع فيديو جديد يظهر فيه الشخص الأول وكأنه يقول أو يفعل شيئًا لم يفعله في الواقع.

وتسمح التقنيات سريعة التطور للمستخدمين بتعديل الأشياء وملامح الوجه، وتحريك الصور، ونقل الحركة، واستنساخ الأصوات، وغيرها من الأمور. وكجزء من هذا النظام، يُعد التزييف العميق نوعًا من التلاعب السمعي-البصري الذي يسمح للمستخدمين بإنشاء محاكاة واقعية لوجوه الأشخاص وأصواتهم وأفعالهم.

وهناك أخطار للتزييف العميق، ابرزها أنه يمكن استخدامه لنشر معلومات مضللة أو أخبار كاذبة، وإنشاء مقاطع فيديو مزيفة تضر بسمعة الأشخاص، بالإضافة إلى إمكانية استخدامه للتأثير على الانتخابات عن طريق نشر مقاطع فيديو مزيفة تُظهر المرشحين بشكل سلبي.

تحذيرات من خداع الناخبين

وزادت جودة الصور والصوت والفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بسرعة خلال العام الماضي، مع تسابق شركات مثل OpenAI وغوعل وميتا لصنع أدوات أكثر قدرة وإيجاد طرق لبيعها.

وفي الوقت نفسه، حذر دعاة الديمقراطية وباحثو الذكاء الاصطناعي من أن هذه الأدوات تُستخدم بالفعل لخداع الناخبين والكذب عليهم.

وقال أرفيند نارايانان، أستاذ علوم الكمبيوتر في جامعة برينستون، إن “سورا” “يبدو أنه أكثر تقدمًا بشكل ملحوظ من أي أداة أخرى لإنشاء الفيديو”، استنادًا إلى مقاطع الفيديو التي أصدرتها OpenAI، الخميس.

وأضاف أن ذلك من المحتمل أن يؤدي إلى مقاطع فيديو “مزيفة بعمق” يصعب على الأشخاص التعرف عليها على أنها من إنتاج الذكاء الاصطناعي.

فيما قال تيد أندروود، أستاذ علوم المعلومات في جامعة إلينوي في أوربانا شامبين: “لم أكن أتوقع هذا المستوى من إنتاج الفيديو المستمر والمتماسك لمدة عامين أو ثلاثة أعوام أخرى”.

وفي باكستان، استخدم رئيس الوزراء السابق عمران خان الذكاء الاصطناعي لإنشاء نسخة رقمية لنفسه وهو يلقي الخطب، على الرغم من وجوده في السجن.

وتُستخدم الوسائط التي يتم إنتاجها بواسطة التزييف العميق اليوم بطرق تنذر بالخطر، فعلى سبيل المثال، شجعت على العنف القائم على النوع الاجتماعي من خلال النشر غير الرضائي للصور والفيديوهات الجنسية باستخدام شبيه الشخص.

كما انتشرت أيضًا لقطات الفيديو المزورة للشخصيات العامة فضلًا عن المقاطع الصوتية الملفقة، مثل المقطع المزيف الذي ظهر في مارس من العام الماضي، ويظهر الرئيس الأوكراني فولوديمير زيلينسكي، وهو يطلب من شعب أوكرانيا إلقاء أسلحتهم والاستسلام لروسيا.

وتقول شركات التكنولوجيا التي تصنع الأدوات إنها تراقب استخدام أدواتها ووضعت بعض السياسات ضد استخدامها لإنتاج محتوى سياسي.

“سورا” وصناعة الأفلام

ويدفع التحسن السريع في تقنيات الذكاء الاصطناعي الأشخاص في مجموعة واسعة من الصناعات، بدءًا من صناعة الأفلام إلى الأعمال الإخبارية، إلى التدافع لفهم كيف يمكن أن يؤثر ذلك على عملهم.

وقد أحدثت مولدات الفيديو المعتمدة على الذكاء الاصطناعي ضجة كبيرة في هوليوود بالفعل، وفق “واشنطن بوست”.

وتعتبر صناعة الأفلام عملية مكلفة، وتستغرق وقتا طويلا، وتتطلب العشرات أو المئات من الأشخاص.

وافترض بعض التقنيين أن الذكاء الاصطناعي يمكن أن يسمح لشخص واحد بإنتاج فيلم بنفس التعقيد البصري الذي تتمتع به أفلام مارفل الرائجة.

أداة "سورا" لتحويل النصوص لفيديوهات.. هل تثير المخاوف بشأن "التزييف العميق"؟

“انظروا إلى أين وصلنا خلال عام واحد فقط من توليد الصور. أين سنكون بعد عام؟”.. هكاذ تساءل مايكل جريسي، مخرج الأفلام وخبير المؤثرات البصرية الذي يتابع تأثير الذكاء الاصطناعي على الصناعة عن كثب. ويتوقع غريسي أن أدوات الذكاء الاصطناعي مثل “سورا” ستسمح قريبًا لصانعي الأفلام بالتحكم بعناية في مخرجاتهم، وإنشاء جميع أنواع مقاطع الفيديو من الصفر.

وأضاف: “لن يحتاجوا إلى فريق مكون من 100 أو 200 فنان على مدى ثلاث سنوات لصنع فيلم الرسوم المتحركة الخاص بهم. بالنسبة لي، هذا مثير”.

وفي الوقت نفسه، قال جريسي، إن حقيقة تدريب أدوات الذكاء الاصطناعي على أعمال الفنانين الواقعيين دون تعويضهم تمثل مشكلة كبيرة.

وتابع: “ليس الأمر رائعًا عندما يتم أخذ إبداع الآخرين وعملهم وأفكارهم وتنفيذهم، وعدم منحهم الائتمان المستحق والمكافآت المالية التي يستحقونها”.

فيما قالت موتال نكوندي، زميلة السياسة الزائرة في معهد أكسفورد للإنترنت، إن فكرة أن أي شخص يستطيع بسهولة تحويل النص إلى فيديو هي فكرة مثيرة. لكنها قلقة بشأن مدى تأثير هذه الأدوات على سبل عيش الناس، وقدرتهم على تحويل النصوص البغيضة أو أوصاف الأحداث المروعة في العالم الحقيقي إلى لقطات واقعية مؤلمة”.

وأضافت نكوندي أن الإضرابات الأخيرة التي نظمتها نقابات الكتاب والممثلين بدأت في معالجة أسئلة حول استخدام أدوات لغة الذكاء الاصطناعي في كتابة السيناريو واستخدام أشكال الممثلين في المشاهد التي يولدها الذكاء الاصطناعي.

لكنها قالت إن أدوات مثل “سورا” تثير أسئلة جديدة، مثل ما إذا كانت هناك حاجة إلى إضافات بشرية. ومن منظور السياسة، هل نحتاج إلى البدء في التفكير في الطرق التي يمكننا من خلالها حماية البشر الذين يجب أن يكونوا على اطلاع عندما يتعلق الأمر بهذه الأدوات؟

في الوقت نفسه، قالت OpenAI إن أداة “سورا” لا تزال قيد التطوير مع وجود “نقاط ضعف” واضحة، خاصة عندما يتعلق الأمر بالتفاصيل المكانية للموجه -الخلط بين اليسار واليمين- والسبب والنتيجة.
وأضافت أنها تركز في الوقت الحالى على السلامة، وتخطط للعمل مع فريق من الخبراء لاختبار أحدث طراز والنظر عن كثب في مجالات مختلفة بما في ذلك المعلومات الخاطئة والمحتوى الذي يحض على الكراهية والتحيز.

وأشارت الشركة إلى أنها تقوم أيضًا ببناء أدوات للمساعدة في اكتشاف المعلومات المضللة.