2022-02-22 09:22
هل الخوارزميات مُتحيّزة جنسيا؟ سؤال قد يبدو في غير محلّه. ورغم ذلك، فإن الخوارزميات التي قام الإنسان بترميزها، والمستخدمة في مجال الذكاء الاصطناعي، لا تحيد عن الأنماط المتداولة. ولئن أمكن لها إحداث بعض الميولات المُتّسمة بالتمييز الجنسي أو العنصري، فبالإمكان أيضا استخدامها في اتجاه مزيد التقدم في قضية المساواة. ذلك ما تُبيّنه كلّ من أود بارنهايم وفلورا فانسان في كتابهما الذي يحمل عنوان «لا للذكاء الاصطناعي بدونهنّ!»
أجرت الحوار أنياس باردون
اليونسكو
ما الذي أدّى بكما إلى الاهتمام بمسألة النوع (الجندر) في الذكاء الاصطناعي؟
أود بارنهايم: في البداية، كان تفكيرنا مُنصبّا على الروابط القائمة على المساواة بين النساء والرجال من جهة، والعلوم من جهة أخرى. ولقد أسّسنا سنة 2013 جمعية «واكس ساينس(link is external)» [ماذا عن تجربة العلوم] كي نطرح مسألة التأثير المُحتمل لعدم الاختلاط بين الجنسين داخل الفِرَق العلميّة على منتجات العلوم والتكنولوجيا. ويندرج عملنا حول الذكاء الاصطناعي ضمن هذه الفكرة. في الحقيقة، لم نُفاجَأ كثيرا عند عثورنا على ميل للتمييز الجنسي في التكنولوجيات، بصفته موجودا في العديد من المجالات الأخرى، وبالتالي ليس هناك من مبرّر لعدم وجوده في مجال الذكاء الاصطناعي. بيد أن العواقب عديدة وتتجاوز المسائل المعتادة المتعلقة بالمساواة المهنية أو بالأجور. فالقوالب النمطية التي تحملها الخوارزميات في طيّاتها يُمكن أن يكون لها أثر سلبي عند فرز الترشيحات –باستبعاد النساء، مسبقا، من المناصب التقنية– أو عند تقديم المقترحات الخاصة بالأجور، أو حتى بمناسبة القيام بالتشخيصات الطبية.
فلورا فانسان: إن الفِرَق العلمية تفتقر إلى التنوّع، وهي ظاهرة معروفة. أما ما هو معروف بدرجة أقلّ فهي تبعات ذلك على الطريقة التي يتم بها تطوير البحوث أو على المواضيع المفضّلة. فلقد قامت، في الآونة الأخيرة، مؤرخة العلوم الأمريكية، لوندا شيبنجر، بإنجاز أعمال بخصوص هذا الموضوع، مُبيّنة أنه كلما ازداد عدد النساء في الفريق، ازداد احتمال مراعاة مسألة النّوع في الدراسة ذاتها. والأمثلة على هذا التمييز في مجال البحث عديدة. ويمكننا أن نذكر مثال الأدوية التي يتم اختبارها أكثر على الفئران الذكور لأن لها هرمونات أقل من الإناث، ممّا يُسهّل تقييم الآثار الجانبية. مثال آخر: بالنسبة لاختبارات التصادم، يتم استخدام التماثيل النموذجية التي يبلغ طولها 1.70 مترًا وتزن 70 كيلوغرامًا، أي أنها مُصمّمة على مقاس رجل ذي حجم متوسط. ونتيجة لذلك، فإن حزام الأمان لا يأخذ في الاعتبار بعض الأوضاع كحالات النساء الحوامل على سبيل المثال.
هل كانت الإعلامية، منذ نشأتها، مادة تغلب عليها الذكورية؟
أ.ب.: كلاّ. لم تكن دائما كذلك. ففي بداية القرن العشرين، كانت الإعلامية مادّة تتطلب الكثير من الحسابات المملّة. في ذلك العهد، غالبا ما كان يُعهد بهذه المهمّة إلى النساء. وعندما وصلت الحواسيب الأولى، وجدت النساء أنفسهنّ في الصفّ الأول. فهذا العمل لم يكن يُنظر إليه على أنه مرموق. وإلى حدود سنة 1984، كانت النساء يُمثّلن نسبة 37% من العاملين في مجال الإعلامية في الولايات المتحدة. وعلى سبيل المقارنة، لم تكن نسبة الطالبات اللاتي يتابعن مسارا دراسيا في مجال الإعلامية في فرنسا، سنة 2018، تتجاوز 10%، وتُقدّر نسبتهن في مجال الذكاء الاصطناعي بـ 12%. في الواقع، حدث تغيير كبير في الثمانينات مع ظهور الحاسوب الشخصي. فمنذ ذلك الحين، اكتسبت الإعلامية ثِقلا اقتصاديًا غير مسبوق. كما ظهر في تلك السنوات بُعْدٌ آخرَ تمثّل في برمجيات الألعاب التي أسهمت في تطوير مخيال ثقافي ذكوري مفرط أنتج شخصية المهوس. وقد صاحب هذه الحركة المزدوجة تهميش المرأة، وهو ما يدلّ على أن ميل الأولاد إلى الحاسوب لم يكن لأسباب طبيعيّة بقدر ما هو بناء ثقافي.
قد يذهب بنا الظنّ إلى أنّ الخوارزميات محايدة بطبعها. فإلى أي مدى تُساهم هذه الأخيرة في إعادة إنتاج الانحياز الجنسي؟
أ.ب.: بعجالة، لقد أدرك المنبّهون إلى المخاطر أن الخوارزميات منحازة، فلاحظوا، على سبيل المثال، أن برامج الترجمة تَنسُب جِنسا معيّنا إلى المهن من خلال ترجمة كلمة «ذو دكتر» (غير مجنّسة) بالانجليزية إلى «الدكتور» (مذكّر) بالفرنسية، أو «ذو نورس» إلى «ممرضة» (مؤنّث). وعندما ظهرت برمجيات المساعدة الصوتية، سواء أكانت «أليكسا» أو «سيري» أو «كورتانا»، حملت جميعها أسماء مؤنّثة تستجيب للأوامر بشيء من الخضوع حتى عندما تتعرض إلى الإهانة (انظر المؤطر). في سنة 2016، اهتمّت جوي بيولامويني، باحثة أمريكية من أصل أفريقي في معهد ماساتشوستس للتكنولوجيا، بخوارزميات التعرّف على الوجه. وأظهرت أبحاثها أن هذه الخوارزميات تم تدريبها على قواعد بيانات تحتوي في معظمها على صور لرجال بيض. لذلك كان أداؤها أقل جودة عندما يتعلق الأمر بنساء سوداوات أو برجال آسيويين مقارنة بالرجال البيض. وهنا يمكن القول، إذن، أنها، لو ساهمت في الفريق الذي طوّر هذه الخوارزمية، لربّما كان الوضع مختلفًا.
ف.ف.: إنّ تشفير الخوارزمية هو أشبه ما يكون بكتابة نص، إذ يحتوي على نصيب من الذاتية التي تتجلى في اختيار الكلمات، وصياغة الجمل، حتى وإن كان لدينا انطباع بأنّنا نكتب نصا لا يتجاوز سرد الوقائع. ولكي نتعرّف على مواطن الانحياز، اخترنا منهجا يتمثّل في تدقيق مختلف مراحل ما يسمى بـ «عدوى التمييز الجنسي»، إذ لا يُوجد سبب واحد وراء خوارزمية متحيزة، بل هي ثمرة سلسلة من الأسباب التي تتدخل في المراحل المختلفة من بنائها. وفعلا، إذا كان الأشخاص الذين قاموا بترميز الخوارزمية، واختبارها، والتحكّم فيها، واستخدامها دون إدراك منهم لهذه التحيزات المحتملة، فإنهم يعيدون، بالضرورة، إنتاجها، لأنه في الغالبية السّاحقة من الحالات، ليست هناك إرادة واعية في التمييز، بل غالبا ما نقوم فقط بإعادة إنتاج الأنماط اللاواعية التي نستبطنها طيلة حياتنا وبحكم تربيتنا.
هل يوجد وعي اليوم بانحياز بعضٍ من منتجات الذكاء الاصطناعي؟
أ.ب.: الذكاء الاصطناعي حقل يتطور فيه كل شيء بسرعة كبيرة؛ ذلك هو شأن التكنولوجيا أيضا وكذلك مسألة التفكير في استخدامها. ومقارنة باختصاصات أخرى، فإن إشكالية التمييز ظهرت في هذا الحقل في وقت مبكّرٍ للغاية إذ لم تكد تمرّ ثلاث سنوات على بداية الحُمَّى الخوارزمية، حتّى بادر المنبّهون إلى المخاطر بجلب الانتباه نحو المعاملة التفاضلية لبعض الخوارزميات. وهي مسألة أصبحت، مذ وقتها، موضوعا في حد ذاته داخل المجتمع العلمي، يغذّي عديد النقاشات، وتترتّب عنه أعمال بحثية عن التحيّزات وتأثيرات الخوارزميات من وجهة نظر أخلاقية وحسابية وإعلاميّة. ولقد أصبحنا في الآونة الأخيرة نجد أثرا لهذا الوعي في الصحافة العامة. وحتى لئن لم يتم حلّ جميع المشكلات، فهي، على الأقلّ، أصبحت معروفة، وهو ما قد يمهّد الطريق لمعالجتها.
كيف يمكننا أن نجعل الخوارزميات أكثر ميلا إلى المساواة؟
أ. ب.: يجب في البداية أن نتصرّف على مستوى قواعد البيانات حتى تكون ممثّلة للسكّان في تنوّعهم. وقد شرعت بعض الشّركات في ذلك. وهي تشتغل وفق قواعد بيانات تأخذ في الاعتبار الاختلافات في الجنس، والجنسية، والمورفولوجيا. واعتمادا على الأعمال المنشورة حول أوجه القصور في برمجيات التعرف على الوجه، أعادت بعض المؤسسات تدريب خوارزمياتها حتى تُصبح أكثر شمولا. كما شاهدنا أيضًا ظهور شركات تخصّصت في تطوير أدوات تُمكّن من تقييم الخوارزميات ورصد التحيّزات التي قد تشوبها.
ف. ف.: في ذات الوقت، بدأ التفكير، في الأوساط العلمية والبحثية، في الوسائل الكفيلة بإنجاز تقييم أكثر استقلالية، وفي ضرورة إضفاء الشفافية على الخوارزميات. بعض الباحثين، من أمثال جوي بيولامويني، دعا إلى تطوير مدوّنة تقوم على نبذ التحيّز وتعميمها، أسوة بالكتابة المجرّدة من الميول الجندرية. ومن بين المبادرات القائمة اليوم، نشير إلى العمل الذي تقوم به مجموعة «داتا فور غود» التي تفكر في سُبُل وضع الخوارزمية في خدمة المصلحة العامة. ولقد قامت هذه المجموعة بصياغة ميثاق أخلاقي يُعرف بـ «قَسَمُ أبقراط لعلماء البيانات» والذي وضع قائمة في عدد من المعايير الملموسة التي يجب التثبّت منها قبل تطبيق أيّ خوارزمية ضمانا لعدم وجود تمييز فيها. ومن المهم دعم مثل هذه المبادرات.
هل يمكن للذكاء الاصطناعي أن يصبح يوما ما مثالًا في مكافحة التحيّز؟
أ.ب.: بمعنى معيّن، نعم، طالما أدركنا سريعا التحيّزات التي يمكن أن تحدثها هذه التقنيات الجديدة. فالذكاء الاصطناعي بصدد إحداث ثورة في مجتمعاتنا، لذلك يمكنه أن يُغيّر الأشياء على نحو إيجابي. فالذكاء الاصطناعي يُتيح التصرّف في كميات هائلة من البيانات وتحليلها. ذلك ما سمح لـغوغل، بالخصوص، إنشاء خوارزمية، سنة 2016، لاحتساب المدّة الزّمنية المخصصة لكلام النساء في كبرى الأفلام السينمائية الأمريكية وإظهار ضعف تمثيليّتهن. ولكن في الوقت نفسه، يجب على الفِرَق التي تطوّر الخوارزميات المزيد من تشريك النساء. غير أن ما نلاحظه اليوم هو أن عدد النساء اللاتي يدرسن الإعلامية قليل جدّا لجملة من الأسباب تعود بشكل خاص إلى تحفّظ الفتيات على الالتحاق بالاختصاصات العلمية، أو التمييز الجنسي السائد في شركات التكنولوجيا العالية الجودة، وهو ما يتطلّب بعض الوقت لعكس هذا الاتجاه.
ف. ف.: أكيد أنه من الضروري تثقيف الخوارزميات، ولكن تعديل بعض خطوط البرمجية لن يكون كافيًا لحلّ المشكلات. يجب ألا يغيب عن البال أنه لن تكون هناك أي إرادة في ترميز المساواة إذا كانت الفِرق المشاركة غير مختلطة.
من أجل استخدام ديمقراطي للذكاء الاصطناعي في أفريقيا، رسالة اليونسكو، يوليو - سبتمبر 2018