الذكاء الاصطناعي سلاح الصين في شن حملات إعلامية وهمية تشيد بسياساتها

في أحد مقاطع الفيديو، ظهر مذيع أخبار بشعر داكن ولحية قصيرة وتحدث عما اعتبره افتقار الولايات المتحدة المخزي إلى اتخاذ إجراءات ضد العنف الناجم عن السلاح.

وفي مقطع فيديو آخر، أشادت مذيعة للأخبار بدور الصين في العلاقات الجيوسياسية في اجتماع قمة دولي.

المذيعان من إنشاء الذكاء الاصطناعي يقدمان مقاطع فيديو "وولف نيوز" مصدر الصورة: غرافيكا

المذيعان من إنشاء الذكاء الاصطناعي يقدمان مقاطع فيديو “وولف نيوز” مصدر الصورة: غرافيكا

لكن شيئًا ما كان غير طبيعي، إذ كانت أصواتهم مبطنة وفشلت في المزامنة مع حركة أفواههم كانت وجوههم تبدو كشخصيات ألعاب الفيديو وبدا شعرهم مُلصق بشكل غير طبيعي على الرأس، أما كلامهم فكان مليئا بالأخطاء النحوية.

المذيعان، اللذان يُزعم أنهما مقدمان لمنافذ إخبارية تسمى “وولف نيوز”، ليسا شخصين حقيقيين، إنها صور رمزية تم إنشاؤها بواسطة الكمبيوتر بواسطة برامج الذكاء الاصطناعي.

الصين تستغل الذكاء الاصطناعي في صنع شخصيات وهمية تخدم مصالحها

وتم توزيع مقاطع فيديو من خلال حسابات الروبوت المؤيدة للصين على فيسبوك وتويتر، في أول عملية معرفوة لتكنولوجيا الفيديو “deepfake” التي تُستخدم لإنشاء أشخاص وهميين كجزء من حملة إعلامية موالية للدولة.

قال جاك ستابس، نائب رئيس الاستخبارات في “غرافيكا”، وهي شركة أبحاث تدرس المعلومات المضللة: “هذه هي المرة الأولى التي نشاهد فيها هذا في الواقع”. اكتشفت غرافيكا الحملة المؤيدة للصين، والتي بدت تهدف إلى تعزيز مصالح الحزب الشيوعي الصيني وتقويض الولايات المتحدة بالنسبة للمشاهدين الناطقين باللغة الإنجليزية”.

تتمتع تقنية “Deepfake” ، التي تطورت بشكل مطرد لما يقرب من عقد من الزمان، بالقدرة على إنشاء دمى رقمية ناطقة.

تُستخدم برامج الذكاء الاصطناعي أحيانًا لتشويه الشخصيات العامة، مثل مقطع فيديو تم تداوله على وسائل التواصل الاجتماعي العام الماضي يظهر كذباً فولوديمير زيلينسكي، رئيس أوكرانيا، وهو يعلن استسلامه، لكن بإمكان البرنامج أيضًا إنشاء شخصيات من القماش، مستغنيًا عن برامج التحرير التقليدية وأدوات المؤثرات الخاصة باهظة الثمن التي تستخدمها هوليوود، مما يؤدي إلى طمس الخط الفاصل بين الحقيقة والخيال بدرجة غير عادية.

 

الصين تستغل الذكاء الاصطناعي في صنع شخصيات وهمية تخدم مصالحها

مع محدودية القوانين الموجودة لإدارة انتشار التكنولوجيا، حذر خبراء المعلومات المضللة منذ فترة طويلة من أن مقاطع الفيديو المزيفة العميقة يمكن أن تقوض قدرة الناس على تمييز الواقع من التزوير عبر الإنترنت، ومن المحتمل أن يساء استخدامها لإثارة الاضطرابات أو لفضيحة سياسية، هذه التوقعات أصبحت الآن حقيقة واقعة.

على الرغم من أن استخدام تقنية التزييف العميق في حملة التضليل المؤيدة للصين التي تم اكتشافها مؤخرًا كان أمرًا خاطئًا، إلا أنه يفتح فصلاً جديدًا في حرب المعلومات ففي الأسابيع الأخيرة، تم الكشف عن مقطع فيديو آخر يستخدم تقنية مماثلة للذكاء الاصطناعي على الإنترنت، يُظهر أشخاصًا وهميين وصفوا أنفسهم بأنهم أمريكيون، يروجون لدعم حكومة بوركينا فاسو، التي تواجه النقد والتحقيقات بسبب روابطها بروسيا.

قال ستابس إن برامج الذكاء الاصطناعي، التي يمكن شراؤها بسهولة عبر الإنترنت، يمكنها إنشاء “مقاطع فيديو في غضون دقائق وتبدأ الاشتراكات ببضعة دولارات فقط في الشهر”. “هذا يجعل من السهل إنتاج المحتوى على نطاق واسع.”

ربطت غرافيكا مذيعي “وولف نيوز” المزيفين بالتقنية التي صنعتها شركة Synthesia، وهي شركة ذكاء اصطناعي مقرها فوق متجر ملابس في أكسفورد سيركس بلندن.

الصين تستغل الذكاء الاصطناعي في صنع شخصيات وهمية تخدم مصالحها

تصنع الشركة الناشئة البالغة من العمر 5 سنوات برنامجًا لإنشاء صور رمزية للتزييف الكامل، يحتاج العميل ببساطة إلى كتابة نص، ثم يقرأه أحد الممثلين الرقميين المصنوعين بأدوات سينثيسيا Synthesia.

قالت Synthesia إن الصور الرمزية للذكاء الاصطناعي هي “توائم رقمية” ، تستند إلى مظهر الممثلين المستأجرين ويمكن التلاعب بها للتحدث بـ 120 لغة ولهجة، يقدم أكثر من 85 شخصية للاختيار بينها من مختلف الأجناس والأعمار والأعراق ونغمات الصوت وخيارات الموضة.

غالبًا ما يستخدم العملاء برنامج الشركة للموارد البشرية وفيديوهات التدريب، حيث تكون جودة الإنتاج غير كافية لانتاج البرنامج، الذي تكلفته تبلغ أقل من 30 دولارًا في الشهر، فمقاطع الفيديو التي تنتجها في دقائق قد تستغرق في الواقع عدة أيام وتتطلب توظيف طاقم إنتاج فيديو وممثلين بشريين.

قالت Synthesia على موقعها على الإنترنت إن العملية برمتها “سهلة مثل كتابة بريد إلكتروني”.

كيف تظهر الشخصية عادة؟

قال فيكتور ريباربيلي، المؤسس المشارك والرئيس التنفيذي لشركة Synthesia، إن أولئك الذين استخدموا تقنيتها لإنشاء الصور الرمزية التي اكتشفتها غرافيكا قد انتهكوا شروط الخدمة التي تنص على أنه لا ينبغي استخدام تقنية الشركة “للمحتوى السياسي والجنسي والشخصي والجنائي والتمييزي” ورفض ريباربيلي مشاركة معلومات حول الأشخاص الذين يقفون وراء مقاطع فيديو “وولف نيوز” ، لكنه أكد أن حساباتهم قد تم تعليقها.

أضاف ريباربيلي أن Synthesia لديها فريق من أربعة أشخاص مكرس لمنع استخدام تقنية deepfake لإنشاء محتوى غير قانوني، لكنه قال إن المعلومات الخاطئة وغيرها من المواد التي لا تتضمن خطاب الكراهية الصريح والافتراءات والكلمات الخادشة والصور قد يكون من الصعب اكتشافها.

وقال: “من الصعب للغاية التأكد من أن هذه معلومات مضللة” وبعد عرض أحد مقاطع فيديو “وولف نيوز” قال إنه تحمل “المسؤولية الكاملة عن أي شيء يحدث على منصتنا”، ودعا صانعي السياسات لوضع قواعد أكثر وضوحًا حول كيفية استخدام أدوات الذكاء الاصطناعي.

الصين تستغل الذكاء الاصطناعي في صنع شخصيات وهمية تخدم مصالحها

قال ريباربيلي إن تحديد المعلومات المضللة سيصبح أكثر صعوبة وأضاف أنه في نهاية المطاف ستصبح تقنية deepfake متطورة بما يكفي “لإنشاء فيلم هوليوود على كمبيوتر محمول دون الحاجة إلى أي شيء آخر.”

ربطت، Synthesia غرافيكا بحملة التضليل المؤيدة للصين من خلال تتبع اثنين من تجسيدات “وولف نيوز” إلى مقاطع فيديو تدريبية أخرى غير ضارة عبر الإنترنت تظهر فيها نفس الشخصيات. على موقعها على الإنترنت، أطلقت Synthesia على الصورتين “Anna” و “Jason”.

وظهرت نفس الصورة الرمزية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في حملات التسويق والمعلومات المضللة.

تقرأ الصور الرمزية نصًا تمت كتابته في برنامج Synthesia مع الوجوه المعروفة للشخصيات والأصوات الآلية، ولن يستغرق الأمر وقتًا طويلاً حتى تلاحظ أن شيئًا ما غير منطقي.

في الفيديو الذي يدعم حكومة بوركينا فاسو الجديدة، ظهرت “آنا” أيضًا والتي قالت بصوت كان جليا أنه روبوت وبطريقة رتيبة: “دعونا نبقى جميعًا محشدين وراء شعب بوركينا فاسو في هذا النضال المشترك… الوطن أو الموت.. سننتصر”.

في الصين، تعمل شركات الذكاء الاصطناعي على تطوير أدوات التزييف لأكثر من خمس سنوات، وفي حيلة دعائية عام 2017 في أحد المؤتمرات، قامت شركة iFlytek الصينية بتصوير فيديو مزيف لرئيس الولايات المتحدة في ذلك الوقت، دونالد ترامب، وهو يتحدث بلغة الماندراين، تمت إضافة IFlytek منذ ذلك الحين إلى القائمة السوداء الأمريكية التي تحد من بيع التكنولوجيا الأمريكية الصنع لأسباب تتعلق بالأمن القومي.

قالت شركة ميتا المالكة لفيسبوك وإنستغرام وواتس آب، إنها حذفت حسابًا واحدًا على الأقل مرتبطًا بمقاطع فيديو التزييف الموالية للصين بعد أن اتصلت بها صحيفة نيويورك تايمز.

قالت غرافيكا إنها اكتشفت مقاطع الفيديو المزيفة أثناء متابعتها حسابات وسائل التواصل الاجتماعي المرتبطة بحملة تضليل موالية للصين تُعرف باسم “البريد الإلكتروني العشوائي”، في هذه الحملات، تزرع حسابات البريد الإلكتروني العشوائية، المحتوى عبر الإنترنت ثم تستخدم حسابات أخرى تشكل جزءًا من شبكة لتضخيم المواد عبر الأنظمة الأساسية.

قال الباحثون إن استخدام تقنية التزييف كان أكثر وضوحًا من التأثير الفعلي لمقاطع الفيديو، التي لم يرها الكثير من الناس وتم نشر مقطعي الفيديو اللذين يظهران ما يسمى مذيعي وولف نيوز خمس مرات على الأقل بين 22 نوفمبر و 30 نوفمبر من خلال خمسة حسابات، وفقًا لغرافيكا وتمت إعادة مشاركة المنشورات بعد ذلك من خلال حسابين آخرين على الأقل، بدا أنهما جزء من شبكة مؤيدة للصين.

قال ستابس إن باعة المعلومات المضللة سيواصلون تجربة برمجيات الذكاء الاصطناعي لإنتاج وسائط مقنعة بشكل متزايد يصعب اكتشافها والتحقق منها.