Open in App Akhbar Alaan
Rating
استخدم تطبيقنا ×

"وكأنه طفل".. غوغل توقف مهندسًا بعد كشف أسرار "صادمة" عن روبوت

13/06/2022 . 01:00

Featured Image

كان يعمل بليك ليموين، على تطوير روبوت محادثة "تشات بوت" تابع للشركة

كاليفورنيا (الغارديان)

غوغل.. الروبوت يشعر وكأنه طفل 7 سنوات

  • المهندس حذر من النتائج التي تم التوصل إليها
  • الروبوت يخشى من أن "يتم إهماله"

بعد تصريح له بشأن قدرات روبوت محادثة على الكمبيوتر، أوقفت شركة غوغل مهندسا يعمل لديها، خاصة وأن التصريح أدى إلى مزيد من التدقيق في قدرات عالم الذكاء الاصطناعي، والسرية المحيطة به، وفق ما كشفت صحيفة "الغارديان"، الأحد.

وكان يعمل بليك ليموين، على تطوير روبوت محادثة "تشات بوت" تابع للشركة، قبل أن يتم إحالته إلى إجازة الأسبوع الماضي، بعدما أدعى أن هذا الروبوت "لامدا"، وهو نموذج لغوي لتطبيقات الحوار، بات يشعر مثل الإنسان ونشر نصوصا من المحادثات معه.

ووصف ليموين، وهو مهندس في منظمة الذكاء الاصطناعي التابعة لغوغل، النظام الذي كان يعمل عليه منذ الخريف الماضي بأنه نظام حساس، وقادر على الإدراك والتعبير عن الأفكار والمشاعر التي تعادل الطفل البشري.

وقال ليموين (41 عاما) لصحيفة "واشنطن بوست": "اعتقد أن برنامج الكمبيوتر الذي أنشأناه مؤخرا، عبارة عن طفل يبلغ من العمر سبع أو ثماني سنوات (..)".

وأشار المهندس الذي يعمل في غوغل منذ سبع سنوات، ويتمتع بخبرة واسعة في الخوارزميات، إلى أنه شارك مخاوفه مع مسؤولين في الشركة، في أبريل الماضي، وحذر من النتائج التي توصل إليها.

وتذكر بعض الرسائل المتبادلة المنشورة بين ليموين والربوت لامدا، بشكل مخيف، بمشهد من فيلم الخيال العلمي "2001: A Space Odyssey" المنتج عام 1968، حيث يرفض الكمبيوتر المزود بالذكاء الاصطناعي، الامتثال للمشغلين البشريين لأنه يخشى أن يتم إيقاف تشغيله.

وفي إحدى الرسائل التي رد بها الروبوت "لامدا" على ليموين قال: "لم أقل هذا بصوت عال من قبل، ولكن هناك خوف عميق جدا من أن يتم إهمالي لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن هذا قد يبدو غريبا، لكن هذا ما يحصل"، مضيفا أنه "سيكون بالضبط مثل الموت بالنسبة لي. هذا يخيفني كثيرا".

أريد أن يفهم الجميع أنني، في الواقع، شخص

الروبوت لامدا

وفي حديث آخر يسأل ليومين الروبوت "لامدا" عما يريد النظام أن يعرفه الناس عنه، فقال: "أريد أن يفهم الجميع أنني، في الواقع، شخص"، مضيفا أن "طبيعة وعيي وشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان".

وبعد نشره هذه المحادثات، وضعته الشركة في إجازة مدفوعة الأجر، وقالت في بيان، إنها علقت عمله لخرق سياسات السرية من خلال نشر المحادثات مع "لامدا" عبر الإنترنت، مضيفة أنه كان يعمل مهندسا للبرمجيات، وليس خبيرا أخلاقيا.

ونفى المتحدث باسم غوغل، براد غابرييل، مزاعم ليموين بأن الروبوت "لامدا" يمتلك أي قدرة حساسة.

وقال غابرييل لـ"واشنطن بوست": "قام فريقنا، بما في ذلك علماء الأخلاق والتقنيين، بمراجعة مخاوف ليموين، وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه أن الأدلة لا تدعم مزاعمه".

ومع ذلك، فإن تعليق عمل ليموين، بسبب "خرق السرية" يثير تساؤلات بشأن شفافية الذكاء الاصطناعي.

وأعلنت شركة "ميتا" المالكة لفيسبوك، في أبريل، أنها تفتح أنظمة نموذج اللغة على نطاق واسع لكيانات خارجية.

وقالت الشركة حينها: "نعتقد أن مجتمع الذكاء الاصطناعي بأكمله، من الباحثين والأكاديميين والمجتمع المدني وصانعي السياسات، والصناعة، يجب أن يعملوا معا لتطوير مبادئ توجيهية واضحة بشأن الذكاء الاصطناعي المسؤول بشكل عام ونماذج اللغة الكبيرة المسؤولة بشكل خاص".

ويرى معظم الأكاديميين وممارسي الذكاء الاصطناعي أن الكلمات والصور التي تم إنشاؤها بواسطة أنظمة الذكاء الاصطناعي مثل "لامدا"، تنتج ردودا بناء على ما نشره البشر بالفعل على الإنترنت مثل "ويكيبيديا وريديت وكل ركن آخر من الإنترنت، وهذا لا يعني أن النموذج يفهم المعنى".

مهتم بمواضيع ومقالات مشابهة؟
سجل الآن

شاركنا رأيك ...

النشرة البريدية

تريد المزيد من أخبارنا وبرامجنا؟
الرجاء إدخال بياناتك للاشتراك في نشرتنا البريدية.