وداعاً لظلم المدير.. البرمجيات تختار الموظفين الجدد.. فهل تكون أقل عنصرية من الإنسان؟

تم النشر: تم التحديث:
THTH
Alamy

قد يحلو لنا أن نتصور أننا قادرون على الحياد المطلق، على أن نتخذ قرارات خالية من التحيز، خاصة في العمل. ولكن مع الأسف، يلعب التحيز دوراً كبيراً، سواء بوعي أو بغير وعي، في حصول الشخص على وظيفة أو أجر مميز.

فعادة ما ينجذب المديرون إلى الأشخاص الذين يشبهونهم، فقد يقيمون الشخص وفقاً لتحيازتهم المسبقة، وقد يرفضون شخصاً لتصورهم أنه من أصول ملونة، أو ما شابه، أحياناً بدون قصد.

في الآونة الأخيرة، وبحسب تقرير نشرته صحيفة الغارديان البريطانية، انتشرت فكرة أن حل المشكلة يكمن في تصميم برامج حاسوب تقوم باتخاذ قرار التوظيف نيابة عن المدير.

الفكرة ترتكز على أن الحاسوب لديه القدرة على الحياد أكثر من الإنسان، وبالتالي، سيختار الموظف بناء على مقارنة مؤهلاته بمؤهلات المرشحين الآخرين واختيار الأكثر كفاءة، مما ينفي احتمال التحيز تماماً.


تكنولوجيا محايدة


أخذت العديد من الشركات الناشئة على عاتقها التصدي للموضوع، فموقع Gapjumpers يروج لتكنولوجيا محايدة لا تأخذ "الجنس أو التعليم أو الخلفية الاجتماعية في الحسبان" في عملية البحث عن المواهب المتميزة، حسب تقرير الغارديان البريطانية.

أما برنامج Entello للتوظيف، فيقال إنه سيمكن المزيد من النساء من الحصول على وظائف. Doxa يعد بإيجاد بيئة عمل مناسبة للمرأة.

العديد من شركات التوظيف بدأت تتبني أنظمة إلكترونية لجذب العمالة الماهرة والأكثر تأثيراً، فتعطي انطباعاً بأن الباحث عن وظيفة الذي يخشى أن يرفض لأسباب عنصرية سيجد ضالته عندهم.


تحيزات المصممين


ss

ولكن التقرير رأى أنه ما قد يغفل عنه البعض هو أنه يمكن لأي برنامج، وهذا ما يحدث في كثير من الأحيان، أن يعيد إنتاج تحيزات مصممه.

فعلى سبيل المثال، يميل جوجل لإظهار إعلانات الوظائف ذات الأجور عالية للمستخدمين الذكور، وفقاً لدراسة كارنجي-ميلون.

أما باحثو هارفارد، فقد وجدوا أن إعلانات أخبار الاعتقالات تظهر مع البحث عن اسم شخص أسود أكثر من اسم شخص أبيض.

لا يعني هذا أن موظفي جوجل متحيزون ضد المرأة، ولكن البرامج تعكس الفجوة الموجودة في الأجور بين النساء والرجال.

ولكن هذا في حد ذاته يتسبب في ترسيخ تلك الفجوة، وطالما هناك من يؤمن بحيادية البرامج التامة، فعلينا أن نتوقع بقاء الحال على ما هو عليه، بصورة ضارة. فحينما يظهر الانحياز في البيانات، فإن هذا يوحي إلى أن المجموعات الأقل حظاً تستحق تلك المعاملة بالفعل.

بينما تعمل البرمجيات فقط على البيانات، يحدد الإنسان دائماً العوامل التي تؤخذ في الاعتبار.

تقوم إيفيوما أجونوا، أستاذة القانون وعالمة الاجتماع، بكتابة ورقة بحثية عن التوظيف باستخدام البرمجيات، وهي تؤكد أن العديد من النقاط التي قد تبدو لنا حيادية، مثل السكن ومستوى التعليم والتقدير الدراسي وحتى السجل الإجرامي، تعتمد على افتراضات تتجاهل عوامل انعدام المساواة بين الأجناس.

فعلى سبيل المثال، قد تبدو لنا نتيجة الاختبارات القياسية مؤشر على الكفاءة، ولكننا لا نسأل عن كيفية الوصول لتلك النتائج في مجتمعات تعمل المدارس فيها بنظام الفصل العنصري. فإذا لم تتوفر نفس الموارد لجميع الطلبة على حد سواء، تكون نتيجة الاختبار في تلك الحالة مضللة.

قالت أجونوا: "بينما يبدو الأمر غير ضار أو حتى يتبع مبدأ تفضيل الأكفأ، إلا أن التقييم بناء على التاريخ الدراسي يرتبط بشدة بالمستوى الاجتماعي والعرق. إن أخذ الكلية التي درس فيها المتقدم للوظيفة كمعيار لاختياره، لا يعني بالضرورة كفاءته أو ملاءمته لوظيفة بعينها".


اعتقال السود


ss

إن إثارة تلك المخاوف بخصوص التحيز في برمجيات التوظيف قد نتج عن تعامل الشركات مع تلك البرمجيات بسرية تامة.

فبدون الحصول على البرنامج، لن يتمكن أي طرف خارجي أن يحدد مدى حياديته. ولكن أجونوا تقول أنه من الممكن تحديد مدى حيادية البرنامج بناء على نوع البيانات التي يستخدمها لاختيار المرشحين، ونوع القرارات التي يتخذها في النهاية.

على سبيل المثال، حينما تكون سياسات الاعتقال أو عنف السلطة ضد المواطنين في أميركا أكثر تأثير على السود، يكون القرار بإلغاء المقابلة للمتقدم للوظيفة إذا ما ثبت أن لديه سجل جنائي متحيزاً ضد السود.

أجونوا أضافت: "مع كارثة الاعتقالات الجماعية في أميركا، يعتبر سجل الاعتقال عاملاً هاماً. وعلي ذلك، سيتمكن أصحاب الأعمال من استبعاد كل من له سجل جنائي باستخدام البرمجيات. وبنفس الطريقة، قد يستبعد أصحاب الأعمال كل من بقى بلا عمل لمدة طويلة، بغض النظر عن السبب، مما سيؤثر على كبار السن والآباء بشكل كبير".


فصل الأعراق


ss

اشترك زملاء أجونوا سوريل فريدلر وسوريش فنكاتاسوبرامانيان في كتابة ورقة بحثية تقترح حلاً لتلك المشكلة. فبدلاً من الاعتماد على الدرجات أو التقديرات الجامعية للمتقدمين، يجب دراسة متوسطات الدرجات في كل مجموعة عرقية على حدة، ومن ثم القياس بالنسبة للدرجة الملائمة لكل مجموعة.

يقول فريدلر "يتم مراجعت كل عنصر في البيانات على حدة، ويتم تعديل النتيجة وفقاً للمجموعة العرقية المنتمي لها المتقدم، بحيث لا يؤثر انتماؤه لمجموعة عرقية مظلومة تاريخياً على نتائجه في برامج التوظيف. يتم هذا بدقة شديدة بحيث لا يكون ضاراً ببيانات أخرى مفيدة".

فبدلاً من مقارنة تقديرات الـ10% الأعلى بين المتقدمين، يتم اعتبار الـ5% الأعلى بين النساء، والـ5% الأعلى بين الرجال، وجمعهم معا، ثم استنتاج المتوسط الذي ينطبق على كافة المرشحين. وبرغم أن هذا التعديل سيتطلب من المتقدم ذكر العرق والجنس في استمارة التقديم، إلا أن ذلك سيصب في مصلحة المجموعات الأقل حظاً.

تقول أجونوا: "نحن نقدم حلاً لأصحاب الأعمال وكذلك للهيئات الحكومية، مثل اللجنة الخاصة بتساوي الفرص في التوظيف، لقياس مدي حيادية أصحاب الأعمال الذين قدمت ضدهم شكاوى".

أحد تحديات إصلاح عملية التوظيف عن طريق البرمجيات هو أن قياس نتيجة اختيار البرمجيات ليس له معيار محدد. فكيف نحدد ما إذا كان الاختيار قد تم بناء على الكفاءة فقط؟ ما هو الأداء المتوقع من صاحب العمل ليعتبر "عادلاً" أو ناجحاً في اختيار الموظفين بحيادية؟

يقول فنكاتاسوبرامانيان: "عملنا لا يجيب عن تلك الأسئلة. علينا أن نوازن بين الرغبة في الحيادية والرغبة في كفاءة التوقع. ولكن تقييم الكفاءة يتم حالياً بناء على بيانات معطوبة، مثل تقييمات الأداء المعطوبة للموظفين".


بيانات ظالمة


يشير عمل هؤلاء الباحثين إلى مشكلة قلّما تتم مناقشتها، وهي أن البيانات نفسها يجب أن تكون "عادلة" لكي يستطيع البرنامج أن يصدر قراراً عادلاً، حتى لا نظل غارقين في وهم "حيادية البرمجيات".

تشبه أجونوا هذا الأمر بقصص العراف اليوناني التي شوهت عبر التاريخ، كصوت عالم ببواطن الأمور، بينما العرافون في الأساطير كانوا يحتاجون للكثير من المناقشات والإلهام. البرمجيات ليست لها قدرات سحرية، وهي تحتاج لدراسات جادة لكي تصل لما هو متوقع منها من الحيادية.

- هذا الموضوع مترجم عن صحيفة The Guardian البريطانية. للاطلاع على المادة الأصلية اضغط هنا.