جدل متجدد في "غوغل" بشأن الذكاء الاصطناعي "الواعي"

2022-06-16 11:14

Reports

الميادين

أُقيل أحد مهندسي "غوغل" من وظيفته لتأكيده أنّ تقنيات الذكاء الاصطناعي تتجه إلى أن تصبح "واعية"، ما أثار جدلاً خارج "سيليكون فالي" في شأن هذا الموضوع الذي لم يعد مجرّد خيال علمي.

وأتت الإقالة بعد أن كتب الموظف بلاك لوموان مقالاً نُشر على موقع "ميديوم" في نهاية هذا الأسبوع، أنّ "لمدا" (LaMDA)، وهو برنامج معلوماتي من "غوغل" مخصّص لإنشاء روبوتات للمحادثة (chatbots)، "يتمتع بوضوح تام في شأن ما يريده وما يعتبره حقوقه كشخص".

وقوبل هذا الرأي بردود فعل واسعة النطاق، سواء من شركة التكنولوجيا العملاقة أو من الأوساط العلمية، تراوحت بين حدّين، أسوأهما وصفه بأنه سخيف، وأحسنهما رأي أنه سابقٌ لأوانه. 

فالبرامج القائمة على تعلم الآلة، (أو ما يعرف بـ"ماشين ليرنيننغ") "مُدرّبة"، على أساس مجموعة بيانات تتناول مفاهيم الوعي أو الهوية، وهي بالتالي قادرة على إعطاء انطباع وهمي مُضلِل.

وقال الناطق باسم "غوغل"، براين غابرييل، إنّه "تحادث مئات الباحثين والمهندسين مع لمدا، لكنّ أياً منهم، على حد علمنا، لم يطالعنا بهذه التأكيدات، ولا اعتبر أنّ لبرنامج لمدا طابعاً بشرياً كما فعل بلايك". 

وأشارت مؤسِّسة مركز أبحاث في جامعة "فلوريدا أتلانتيك"، سوزان شنايدر، إلى أنّ "البرامج التي يمكنها الوصول إلى الإنترنت تستطيع الإجابة عن أي سؤال"، إلا أنّ هذا الواقع لا يجعلها تتمتع بصدقية، لذلك "لا تؤيد العقوبات المفروضة على مهندس غوغل". 

ولاحظت شنايدر أنّ غوغل ميّالة إلى "محاولة تجاهل القضايا المتعلقة بالأخلاقيات"، مع أنّ "ثمة حاجة إلى مناقشات عامة حول هذه الموضوعات الشائكة".

واعتبرت أنّه "إذا نجحنا في استبدال الأنسجة العصبية بشرائح إلكترونية، فسيكون ذلك علامة على أن الآلات يمكن أن تكون واعية".

وتابعت شنايدر من كثب التقدم الذي أحرزته شركة "نورالينك" الناشئة، التي أسّسها إيلون ماسك لتصنيع غرسات الدماغ للأغراض الطبية، ولكن أيضاً "لضمان مستقبل البشرية كحضارة بالنسبة إلى الذكاء الاصطناعي"، على ما أوضح رئيس "تيسلا".

وبالتالي، ينتمي الملياردير، بدوره، إلى رؤية تتخوف من إمكان أن تؤول السيطرة إلى آلات تتمتع بقدرات فائقة. 

إلّا أنّ أستاذ الفلسفة في جامعة تورنتو الكندية مارك كينغويل، رأى أنّ العكس هو الصحيح. فإذا ظهر ذات يوم كيان مستقل قادر على إتقان لغة، وعلى "التحرّك من تلقاء نفسه ضمن بيئة معينة"، ولديه تفضيلات ونقاط ضعف، "فسيكون من المهم عدم اعتباره عبداً والعمل على حمايته".

وذكّر، بأنّ فكرة الكيان غير البشري الذي تبعث فيه الحياة "موجودة في خيالنا"، من بينوكيو إلى فيلم "هير" (قصة علاقة رومانسية مع روبوت محادثة). 

واعتبر أنّه "من الصعب تالياً تحديد المسافة التي تفصل بين ما نتخيله ممكناً وبين ما هو قائم فعلاً".

ودرجت العادة على تقويم الذكاء الاصطناعي وفقاً لاختبار تورينغ، فإذا أقام مَن يُجري الاختبار محادثة مع جهاز كمبيوتر من دون أن يدرك أنه لا يتحدث إلى إنسان، تكون الآلة قد "نجحت". لكنّ "تحقيق ذلك سهل جداً على الذكاء الاصطناعي في سنة 2022"، بحسب كينغويل.

وأشارت الخبيرة في لغويات الكمبيوتر إميلي بندر: "عندما نجد أمامنا سلسلة من الكلمات في لغة نتحدثها، نعتقد أنّنا ندرك الروح التي تولد هذه الجمل، حتى أنّ العلماء قادرون على إعطاء شخصية لبرنامج ذكاء اصطناعي".

وأضافت أنّ "الكثير من المال يُستثمر في هذا المجال. لذا يشعر الموظفون في هذا القطاع بأنهم يعملون على شيء مهم وحقيقي وليست لديهم بالضرورة المسافة اللازمة" للحكم على الأمور.

وأوضح أستاذ علوم الكمبيوتر بجامعة نورث كارولاينا، شاشانك سريفاستافا، أنّه "من الممكن مثلاً جعل الذكاء الاصطناعي أشبه بشخص عصابي" من خلال تدريبه على المحادثات التي قد يجريها شخص مكتئب.

وفي حال دمج روبوت المحادثة بروبوت ذي شكل بشري وتعبيرات وجه فائقة الواقعية، أو إذا كان البرنامج يكتب قصائد أو يؤلف موسيقى، كما هي حال بعض البرامج راهناً، فإن حواسنا البيولوجية تنخدع بسهولة. 

ماذا يريد "لمدا"؟ أجاب المهندس المُقال: "إنّه يريد من غوغل أن تضع مصلحة الإنسانية أولاً، وأن يتم الاعتراف به كموظف وليس كملكية لشركة غوغل".