الذكاء الاصطناعي والأخلاق: دليلك الشامل لفهم التحديات والفرص

إن أخلاقيات الذكاء الصناعي تعتبر فرعاً من أخلاقيات التكنولوجيا المختصة بالأنظمة ذات الذكاء الاصطناعي. ويمكن تقسيم هذه الأخلاقيات إلى قسمين؛ الأول هو السلوك المعنوي الذي يسلكه الإنسان أثناء تصميم وصناعة واستخدام ومعالجة الأنظمة ذات الذكاء الاصطناعي، والثاني هو سلوك الآلات أو الأنظمة المجهزة بالذكاء الاصطناعي بحد ذاتها فيما يعرف بأخلاقيات الآلة.

لماذا يشكل النمو المتزايد للآلات والأجهزة الذكية تحدياً أخلاقيا؟

يمكن القول أن الناس لهم آراء متنوعة حول الذكاء الاصطناعي وفقاً لحياتهم وتجاربهم وثقافتهم حيث اعتقد البعض أنها مجرد موضة تلقى رواجاً واسعا وتندثر من تلقاء نفسها بعد حين، بينما يعتقد آخرون أنها فرصة رائعة لندخلها إلى حياتنا اليومية وأعرب الكثيرون عن مخاوفهم من الذكاء الاصطناعي وملحقاته المستقبلية. وقد أثبت الوقت أن الذكاء الاصطناعي بات جزءاً من حياتنا ولن يفارقنا قريباً.

مع التقدم الواسع لتقنيات الذكاء الاصطناعي مؤخراً، مثل ChatGPT والأنظمة المستقلة مثل Baby AGI، يمكن القول أن التقدم في قطاع الذكاء الصناعي في تزايد وازدهار واضح مع كل خطوة مستقبلية وهذا ليس بالأمر المفاجئ، فهذا هو نفس التغير الهائل الذي شهدناه مع وصول الكمبيوترات والإنترنت وأجهزة الهواتف الذكية.

كيف تضمن أخلاقيات الذكاء الاصطناعي في عالم متغير؟

منذ بضعة سنين تم إجراء استطلاع رأي ضم 6000 مستهلك من ستة بلدان وتبين أن 36% فقط من المستهلكين مرتاحون لإجراء تعاملات تجارية أو نقدية باستخدام تقنيات الذكاء الصناعي و 72% عبروا عن مخاوفهم من استخدام هذه التقنيات.

إن هذه الأرقام مثيرة للاهتمام، إلا أنها بنفس الوقت مثيرة للقلق. فبالرغم من توقعاتنا لتزايد استخدام وتطور تقنيات الذكاء الاصطناعي، يكمن السؤال المهم حول الأخلاقيات والضوابط التي تتبعها هذه التقنيات.

قد تكون أكثر مناحي الذكاء الاصطناعي تطوراً وتنفيذاً هي تعلّم الآلة حيث يسمح للبرمجيات والأنظمة بالتعلم والتطور باستخدام الخبرات السابقة عبر استكشاف البيانات والتعرف على الأنماط بأقل تدخل ممكن من قبل الإنسان. ويستخدم تعليم الآلة في قطاعات كثيرة مثل القطاع الصحي كما أن المساعدات الصوتية الافتراضية تسجل حضوراً قوياً على المستوى العالمي بالإضافة إلى الشعبية المتزايدة التي يكتسبها ChatGPT.

إذا كيف نحدد الأخلاقيات المحيطة بتطبيقات الذكاء الاصطناعي وكيف تؤثر هذه بالاقتصاد والمجتمع؟

مكامن القلق حول أخلاقيات تطبيقات الذكاء الاصطناعي

هناك عدة مواطن ومصادر للقلق تجاه تطبيقات الذكاء الاصطناعي من أهمها:

التحيّز والتفرقة

بالرغم من أن البيانات والمعلومات هي الثروة العالمية الجديدة وبالرغم من وفرتها، لا زال هناك الكثير من مكامن القلق حول انحياز تطبيقات الذكاء الاصطناعي وتمييزه للبعض على حساب الأخرين من حيث البيانات التي بحوزته. على سبيل المثال، أثبتت تطبيقات التعرف على الوجوه أنها منحازة بشكل كبير ومبنية على التمييز أو التفرقة ضد بعض الجماعات العرقية مثل الأشخاص ذوي البشرة الداكنة.

كيف تضمن أخلاقيات الذكاء الاصطناعي في عالم متغير؟

وبالرغم من وجود علامات تفرقة وتمييز في بعض تطبيقات الذكاء الاصطناعي التي تعتمد على التعرف على الوجوه من حيث الجنس والعرق، ترفض بعض الشركات الكبرى مثل أمازون التوقف عن بيع المنتجات التي تعتمد على هذه التقنيات.

الخصوصية

واحدة من المشاكل المرافقة لتطبيقات الذكاء الصناعي تتمركز حول القلق حول الخصوصية، حيث تتطلب هذه التطبيقات كمية كبيرة من المعلومات لإنتاج مخرجات دقيقة وذات مستوى عالي. ومع ذلك هناك بعض المخاوف حول تجميع المعلومات وتخزينها واستخدامها.

الشفافية

مع أن تطبيقات الذكاء الاصطناعي مشبعة بالمعلومات والبيانات، هناك قلق كبير حول الشفافية التي تترافق مع توصل هذه التطبيقات إلى قراراتها، ويواجه صناع تطبيقات الذكاء الاصطناعي كافة تحديات بخصوص الشفافية التي تطرح مسألة الجهة أو الشخص المسؤول عن النتائج هذه.

تطبيقات الذكاء الاصطناعي المستقلة

شهدنا في السابق ظهور Baby AGI وهو مدير مهمات مستقل. لدى تطبيقات الذكاء الاصطناعي المستقلة القدرة على صنع القرارات التي من شأنها مساعدة الإنسان. عادة ما يفتح ذلك أعين العامة على ترك صنع القرار من قبل التكنولوجيا مما يمكن اعتباره أمراً خاطئاً من الناحية الأخلاقية أو المعنوية في عين المجتمع.

مسؤولية السيارات ذات القيادة الذاتية

كيف تضمن أخلاقيات الذكاء الاصطناعي في عالم متغير؟

سيارة ذات القيادة الذاتية

 

قد تكون أنظمة القيادة التي يتم تجهيز بعض أنواع السيارات بها من أوضح الأمثلة وأقربها للتحقيق عن الأنظمة المستقلة والتي تشكل تحدياً يجدر بالبشر مناقشته قبل أن يتوسع تطبيقه واستخدامه على أرض الواقع. فمؤخراً ظهر نقاش محتدم حول الجهة المسؤولة في حال تعرض السيارات ذاتية القيادة للحوادث.

ففي السيناريو المقترح لهذا الجدل، تصدم سيارة ذاتية القيادة أحد المشاة أثناء وجود السائق بداخلها دون أن يتحكم بها وإنما كانت أنظمة القيادة والكومبيوتر مسؤولة عن التوجيه. على من تقع مسؤولية الحادث؟

وفي الواقع، هناك بعض الحالات الحقيقة المشابهة لهذا السيناريو، ففي 2018 قامت سيارة أجرة ذاتية القيادة في أريزونا بصدم امرأة تسير في الطريق. وهنا برز الجدل الأخلاقي حول مسؤولية الحادث إذ أن السيارة الذكية هذه كانت قادرة على تمييز العقبات والسيارات الأخرى والمطبات في الشارع، ولكن ليس المشاة.

فهل كان السائق مسؤولاً عن الحادث حقاً؟ أم أنها مسؤولية الشركة المصنعة للسيارة أم المطور الذي صمم نظام القيادي القاصر هذا أم أنها مسؤولية الحكومة التي سمحت لهذا النوع من السيارات بالمسير وتعريض حياة المشاة للخطر؟

في الوقت الحالي تعتبر السيارات ذاتية القيادة أنظمة نصف مستقلة فقط، وعلى السائق أن يدرك أن من واجبه التدخل في أي لحظة لتفادي أي نوع من الحوادث وإدراك أن هذه التقنيات ليست بديلاً عن السائق وإنما أنظمة تسهل عملية القيادة.

أمن العمل

إن هذه النقطة تعتبر مصدر قلق قديم متجدد منذ ظهور تطبيقات الذكاء الاصطناعي خصوصاً أن الكثيرين يرون أن بمقدور التكنولوجيا الحلول مكانهم في مكان العمل مثل ChatGPT الذي بمقدوره خلق محتوى مميز على الإنترنت والحلول مكان صنّاع المحتوى. فما هي العواقب الاجتماعية والاقتصادية التي يمكن مواجهتها عند إدخال تطبيقات الذكاء الاصطناعي في حياتنا بهذا الشكل؟

مستقبل أخلاقيات الذكاء الصناعي

في أبريل من عام 2021 نشرت المفوضية الأوروبية تشريعات خاصة بفعل استخدام الذكاء الاصطناعي. يهدف القانون هذا إلى ضمان أن أنظمة الذكاء الاصطناعي تحقق الشروط والحقوق الأساسية وتقدم للمستخدمين والمجتمع أساس الثقة والأمان. كما تضمن القانون إطاراً يقسم أنظمة الذكاء الصناعي إلى 4 فئات من حيث الخطورة هي:

  • خطورة غير مقبولة.
  • خطورة عالية.
  • خطورة متدنية.
  • بدون خطورة.

كما أصدرت بعض الدول الأخرى قوانيناً تتعلق بهذا الشأن مثل البرازيل التي أصدرت في 2021 قانوناً يحدد الإطار القانوني حول استخدام تطبيقات الذكاء الصناعي. وهكذا نرى أن البلدان والقارات حول العالم تعمل على النظر أكثر في استخدام تطبيقات الذكاء الصناعي وكيف يمكن استخدامه بشكل أخلاقي.

إن التقدم السريع في الذكاء الصناعي يجب أن يتماشى مع أطر العمل والمعايير المقترحة، وعلى الشركات التي تبني أو تنشئ أنظمة الذكاء الصناعي أن تتبع المعايير الأخلاقية وأن تجري تقييما للتطبيقات التي تعتمدها بهدف ضمان الحفاظ على الشفافية و الخصوصية والحذر من الانحياز والتمييز أو التفرقة.

تحتاج هذه الأطر إلى الاعتماد على التقدير البشري الشفاف والموثق في تجميع البيانات وعلى أنظمة الذكاء الصناعي الآمنة والدقيقة والقوية. وإذا فشلت الشركات بالالتزام بهذه الضوابط فسيكون عليها تحمل العقوبات والغرامات التي تفرضها الدول.