14-05-2025 10:37 AM
بقلم : د. عُريب هاني المومني
في عصرٍ تتسارع فيه وتيرة التحوّل الرقميّ، وتغزو الخوارزميّات والذكاء الاصطناعيّ مساحات متزايدة من حياتنا اليوميّة، يبرز تساؤلٌ جوهريّ: هل لا تزال المساواة وعدم التمييز -بوصفها حقّاً إنسانيّاً أصيلاً- محميّة في ظلّ أنظمة تقنيّة لا نراها ولا نتحكّم بها؟
في الأصل، تنصّ المواثيق الدوليّة -وعلى رأسها الإعلان العالميّ لحقوق الإنسان والعهد الدوليّ الخاصّ بالحقوق المدنيّة والسياسيّة- على أنّ جميع الأفراد متساوون أمام القانون، ويحقّ لهم التمتّع بكافّة الحقوق والحريّات بشكلٍ متساوٍ ودون أيّ شكلٍ من أشكال التمييز. إلّا أنّ تطوّر خوارزميّات الذكاء الاصطناعيّ أوجد تحدّيات جديدة لم تكن مأخوذة بعين الاعتبار عند صياغة تلك النصوص.
فخوارزميّات الذكاء الاصطناعيّ تُصمّم من خلال تغذيتها ببيانات سابقة تُستخدم لتدريب الأنظمة على اتّخاذ قرارات بناءً على الأنماط المُكتشفة، كاختيار المُرشحين للوظائف، وتحديد الأشخاص الأكثر عرضةً لخطر العودة إلى الجريمة، وتقديم القروض والتأمينات، بل وحتّى في توزيع الخدمات الحكوميّة، وإذا كانت هذه البيانات تعكس تمييزاً أو تحيّزاً تاريخيّاً فإنّ الخوارزميّات لن تفعل شيئاً سوى إعادة إنتاج هذا التمييز، ولكن بصيغة تقنيّة يصعب اكتشافها أو محاسبة المسؤولين عنها، إذ يُمكن أن تُنتج هذه الخوارزميّات نتائج غير عادلة، تضرّ بفئات معيّنة من الناس؛ بسبب الجنس أو العرق أو اللّون أو الوضع الاجتماعيّ، دون أن يدرك الأفراد أنّهم وقعوا ضحايا لتمييز رقميّ صامت.
ومن الأمثلة على ذلك ما كشفت عنه صحيفة "ذا نيويورك تايمز" في العام 2018 حول قيام خوارزميّة توظيف في شركة "أمازون" باستبعاد المُتقدّمات الإناث تلقائيّاً؛ لمجرّد أنّ البيانات التاريخيّة أظهرت نسب تمثيل أقلّ لهذه الفئة، الأمر الذي اضطر الشركة إلى التخلّي عن النظام بعد أن تبيّن أنه يُعزّز التحيّز أو التمييز الجندريّ. كما أنّ بعض الدراسات توصّلت إلى أنّ أنظمة التعرّف على الوجوه قد تكون أقلّ دقّة في التعرّف على ملامح الأشخاص ذوي البشرة الداكنة، ممّا قد يؤدي إلى أخطاء جسيمة، خصوصاً في السياقات الأمنيّة.
هذه الوقائع تضعنا أمام تحدّيات قانونيّة وحقوقيّة كبيرة. فمن المسؤول عن نتائج هذه الخوارزميّات؟ هل هو المُبرمج؟ أم الشركة المالكة؟ أم النظام بحدّ ذاته؟ وكيف يمكن إثبات وجود تمييز في قرار اتُّخذ عبر عمليّة حسابيّة لا يُفصح عنها غالباً؟
في هذا السياق، لا بُدّ من الإشارة إلى أنّ المفوضيّة السامية لحقوق الإنسان دعت إلى تنظيم استخدام الذكاء الاصطناعيّ وتصميم الخوارزميّات بشكلٍ يحترم منظومة حقوق الإنسان، وقد حذّرت من أنّ "الخوارزميّات قد تُعمّق أوجه التفاوت القائمة، ما لم تُصمَّم بعناية".
على المستوى العربيّ، لا يزال النقاش حول العدالة الخوارزميّة في بداياته، ويُغيَّب الإطار القانونيّ الذي يُنظّم الخوارزميّات ويضمن احترامها لحقوق الإنسان. وهذا الغياب يُفاقم خطر التمييز، ويجعل الأفراد عاجزين عن الدفاع عن حقوقهم أمام خوارزميّات غير مفهومة وغير خاضعةٍ للمساءلة.
وفي هذا الصدد فقد جاء التكليف الملكيّ السامي في المملكة الأردنيّة الهاشميّة بتشكيل المجلس الوطنيّ لتكنولوجيا المستقبل وبمتابعةٍ مباشرة من وليّ العهد الأمير الحُسين بن عبد الله الثاني خطوةً رائدةً نحو تعزيز مكانة الأردن في المجال الرقميّ والتكنولوجيّ، عن طريق إدماج التكنولوجيا في مختلف المجالات، واستثمارها لحماية وتعزيز الحقوق والحريّات.
إنّ احترام الحقّ في المساواة وعدم التمييز وتعزيزه في هذا السياق يتطلّب جهداً جماعيّاً مُتعدّد المستويات: قانونيّاً، وتقنيّاً، ومجتمعيّاً، من خلال تعزيز الشفافيّة في تصميم وتطبيق الخوارزميّات، وتمكين الأفراد من الطعن في القرارات الآليّة، ومراجعة النماذج المُستخدمة من قِبل جهات مستقلّة. كما يجب إدماج مبادئ حقوق الإنسان في كلّ مرحلةٍ من مراحل بناء الخوارزميّة، منذ جمع البيانات وصولاً إلى تحليل النتائج. فمن المفترض أن يكون التقدّم التقنيّ والتحوّل الرقميّ في خدمة العدالة وليس ضدّها.
1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
14-05-2025 10:37 AM
سرايا |
لا يوجد تعليقات |