حملة تستهدف صور الذكاء الاصطناعي “الخادعة” المستخدمة لأغراض سياسية
انتشرت مؤخرًا آلاف الصور التي تبدو “واقعية”، وتم توليدها بواسطة الذكاء الاصطناعي، عبر وسائل التواصل الاجتماعي، سببت نوعًا من الارتباك والخداع لدى بعض رواد تلك المنصات، الذين ليس لديهم دراية بقدرات وإمكانيات الذكاء الاصطناعي في توليد الصور.
ولمواجهة تلك الموجة من المحتوى المخادع، تعتزم شركة “ميتا” في الأشهر المقبلة وضع علامات لتمييز الصور المولدة بتقنية الذكاء الاصطناعي عبر شبكاتها الاجتماعي.
وأعلنت “ميتا” المالكة لمنصات وتطبيقات التواصل الاجتماعي فيسبوك وإنستغرام وواتساب وثريدز، أن ذلك الإجراء بدأت تعتمده مع أداتها المتخصصة في توليد الصور، حيث تسعى الشركة لمواجهة الأشخاص والمنظمات التي تريد خداع الناس عبر إنشاء صور غير واقعية بتقنيات الذكاء الاصطناعي.
Labeling AI-Generated Images on Facebook, Instagram and Threadshttps://t.co/7IMmLIyeJv
— Emily Turrettini (@textually) February 7, 2024
وقال رئيس الشؤون الدولية في “ميتا” نيك كليج، في منشور عبر مدونة الشركة، “في الأشهر المقبلة، سنصنّف الصور التي ينشرها المستخدمون عبر فيسبوك وإنستغرام وثريدز عندما نرصد علامات متطابقة مع المعايير التي تشير إلى أنها ابتُكرت باستخدام تقنية الذكاء الاصطناعي”.
كما تبدأ الشركة أيضًا بمعاقبة المستخدمين الذين لا يكشفون عن كون المقطع المرئي أو الصوتي الواقعي قد جرى تعديله بالذكاء الاصطناعي.
هل الإجراء يشمل جميع الأدوات؟
أوضحت الشركة أن الصور “الواقعية” التي تم إنشاؤها باستخدام أداة توليد الصور بالذكاء الاصطناعي من ميتا، والتي يطلق عليها (Imagine) تم تصنيفها بالفعل على أنها صور مولدة بالذكاء الاصطناعي.
لكن يك كليج أعلن أن الشركة ستعمل أيضا على البدء في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم تطويرها على خدمات منافسة.
وتحتوي صور ميتا المولدة بالذكاء الاصطناعي بالفعل على بيانات وصفية وعلامات مائية غير مرئية يمكنها إخبار المؤسسات الأخرى بأن الصورة تم تطويرها بواسطة الذكاء الاصطناعي، وتعمل الشركة على تطوير أدوات لتحديد هذه الأنواع من العلامات عند استخدامها من قبل شركات أخرى، مثل غوغل، وOpenAI، ومايكروسوفت، وأدوبي، بالإضافة إلى أدوات Midjourney وShutterstock التي تعمل بالذكاء الاصطناعي، وفق صحيفة “الجارديان”.
Meta pushes to label all AI images on Instagram and Facebook in crackdown on deceptive content https://t.co/Xmg2I69MMO
— Guardian Tech (@guardiantech) February 6, 2024
قال كليج: “بينما يصبح الفرق بين المحتوى البشري والمحتوى الاصطناعي غير واضح، يرغب الناس في معرفة أين تقع الحدود”.
وأضاف: غالبًا ما يصادف الأشخاص محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي للمرة الأولى، وقد أخبرنا مستخدمونا أنهم يقدرون الشفافية حول هذه التكنولوجيا الجديدة. لذلك من المهم أن نساعد الأشخاص على معرفة متى تم إنشاء المحتوى الواقعي الذي يشاهدونه باستخدام الذكاء الاصطناعي”.
وأشار كليج إلى أنه يجري تنفيذ هذه الخطوة، وسيتم تطبيق التسميات بجميع اللغات في الأشهر المقبلة.
ما سر هذه الخطوة؟
يأتي الإعلان عن هذه الخطوة في وقت يثير ازدهار الذكاء الاصطناعي التوليدي مخاوف من إقدام الأشخاص على استخدامه لإثارة فوضى سياسية، من خلال التضليل الإعلامي أو نشر معلومات خاطئة، في المراحل التي تسبق انتخابات بارزة ستُقام خلال هذا العام في بلدان عدة.
وقال كليج: “إننا سنتبع هذا النهج خلال العام المقبل، حيث سيتم إجراء عدد من الانتخابات المهمة حول العالم”.
وأضاف أن الشركة ستضع أيضًا علامة أكثر وضوحًا على الصور أو مقاطع الفيديو أو الصوت “التي تم إنشاؤها أو تعديلها رقميًا” والتي “تخلق خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية”.
وكانت الشركة تتطلع أيضًا إلى تطوير تقنية للكشف تلقائيًا عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، حتى لو لم يكن المحتوى يحتوي على علامات غير مرئية، أو حيث تمت إزالة تلك العلامات.
ورأى كليج أن “هذا العمل مهم بشكل خاص لأنه من المرجح أن يصبح مجالاً للخصومة بشكل متزايد في السنوات المقبلة”.
وأشارت ميتا إلى ان “لأشخاص والمنظمات التي ترغب فعليًا في خداع الأشخاص باستخدام محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي سيبحثون عن طرق للالتفاف حول الضمانات الموضوعة للكشف عنه. وعبر صناعتنا والمجتمع بشكل عام، سنحتاج إلى مواصلة البحث عن طرق للبقاء في المقدمة بخطوة”.
ودخلت تقنية التزييف العميق باستخدام الذكاء الاصطناعي بالفعل دورة الانتخابات الرئاسية الأمريكية، حيث أدت المكالمات الآلية لما يُعتقد أنه تزييف عميق لصوت الرئيس الأمريكي جو بايدن بواسطة الذكاء الاصطناعي إلى تثبيط الناخبين عن حضور الانتخابات التمهيدية للحزب الديمقراطي في نيو هامبشاير.
كما واجهت خدمة الأخبار الوطنية لشبكة Nine Network في أستراليا الأسبوع الماضي انتقادات بسبب تغييرها صورة لنائبة، وتم بثها في نشرات الأخبار المسائية. وألقت الشبكة باللوم على “الأتمتة” في برنامج Adobe Photoshop، الذي يتميز بأدوات الصور المدعمة بالذكاء الاصطناعي.
أهمية هذه الخطوة
أهمية هذه الخطوة التي اتخذتها شركة ميتا متعددة، ويمكن تلخيصها في النقاط التالية:
مكافحة التضليل الإعلامي
الصور التي ينشئها الذكاء الاصطناعي، وخاصة الصور الواقعية، يمكن التلاعب بها بسهولة واستخدامها في نشر معلومات مغلوطة. يساعد وضع العلامات عليها المستخدمين على فهم مصداقية المحتوى الذي يستهلكونه ويشجع على المشاركة المسؤولة.
الشفافية والثقة
من خلال الكشف عن استخدام الذكاء الاصطناعي، تعزز ميتا الشفافية وتبني الثقة مع مستخدميها/ وهذا أمر بالغ الأهمية في بيئة الإنترنت حيث تزداد شيوعًا تقنية “ديب فيك” والمحتوى المُعدّل الآخر.
التعليم والتوعية
يزيد وضع العلامات على الصور التي ينشئها الذكاء الاصطناعي من الوعي بقدرات الذكاء الاصطناعي وحدوده، ويساعد هذا المستخدمين على تطوير مهارات التفكير النقدي وتمييز المحتوى الحقيقي من المُصطنع.
تعزيز الإبداع
يعترف وضع العلامات بدور الذكاء الاصطناعي في إنشاء هذه الصور، وهذا مهم للاعتراف بأهمية عمل مطوري الذكاء الاصطناعي وتعزيز ممارسات الإبداع المسؤولة.
ومع ذلك، من المهم الإقرار بأن وضع العلامات وحده لا يحل جميع التحديات التي يفرضها المحتوى الذي ينشئه الذكاء الاصطناعي، ويتطلب معالجة هذه القضايا المعقدة نهجًا متعدد الجوانب يشمل الحلول التقنية، وتثقيف المستخدمين، واتخاذ السياسات.
لكن، بشكل عام، تمثل مبادرة ميتا خطوة إيجابية نحو تعزيز الاستخدام المسؤول لتقنية الذكاء الاصطناعي وخلق بيئة أكثر موثوقية على الإنترنت.