الحياد الخوارزمي… تفكيك وهم الموضوعية في الذكاء الاصطناعي
في العصر الرقمي الذي تتسارع فيه وتيرة التقنية، وتُرفع فيه الخوارزميات إلى مقام «الحَكَم المحايد» لكثير من القرارات التي تؤثر في حياة البشر، يُطرح سؤال جوهري: هل الخوارزميات بالفعل محايدة؟ أم إننا نعيش وهم الموضوعية الرقمية؟ ومن هذا السؤال تتفرع إشكالية أكثر تعقيدًا: هل يمكن أن توجد «خوارزميات عادلة»؟ وما المعايير الأخلاقية التي يجب أن توجه هذا المجال؟
هذه المقالة تسعى إلى تفكيك هذا الوهم، من خلال تحليل نقدي لأبرز مظاهر التحيز في الذكاء الاصطناعي من منظور إسلامي، وتأمل فيما تعكسه هذه الأدوات من انحيازات بشرية مضمرة.
ما المقصود بالحياد الخوارزمي؟
الحياد الخوارزمي هو الادعاء بأن القرارات الصادرة من الأنظمة الذكية نابعة من منطق رياضي صِرف، بعيدًا من الأهواء والانحيازات البشرية. لكن الواقع يثبت أن الخوارزميات ما هي إلا مرآة للبيانات التي تُغذى بها، وغالبًا ما تكون انعكاسًا لواقع غير عادل، أو لرؤية ضيقة للواقع، وهو ما يجعل الحياد أقرب إلى الغطاء منه إلى الحقيقة.
وهم الحياد وادعاء الموضوعية: يستخدم مفهوم «الحياد» ذريعةً لتمرير قرارات تقنية تفتقر إلى التقييم الأخلاقي. غير أن ادعاء الموضوعية في الذكاء الاصطناعي يتجاهل حقيقة أن تصميم الخوارزميات نفسه يتضمن اختيارات بشرية جوهرية. ما الذي يُعد مهمًّا؟ ما المعايير؟ ما الأولويات؟ هذه الأسئلة تحمل طابعًا قيميًّا، ولا يمكن الإجابة عنها من دون الاستناد إلى منظومة أخلاقية واضحة، وعندما تغيب هذه المنظومة، يصبح الحياد مجرد ستار يُخفي تحيزات هيكلية متجذرة في صلب التقنية.
كيف تتحيّز الخوارزميات؟
التحيّز الخوارزمي لا ينتج عن نية مبيتة من مصمميه بالضرورة، بل عن طبيعة البيانات التي تُستخدم لتدريب النماذج. فإذا كانت هذه البيانات مشبّعة بتحيزات تاريخية -مثل العنصرية أو التمييز أو المركزية الغربية- فإن الخوارزميات تتعلم هذه الأنماط، وتُعيد إنتاجها بطريقة قد تبدو «موضوعية» لكنها خلاف ذلك. وهذا ما يجعل الذكاء الاصطناعي شريكًا في تكرار اللاعدالة لا معالجتها.
مظاهر التحيز في الذكاء الاصطناعي «تحليل نقدي من منظور إسلامي»
التحيز في البيانات: يعكس هذا النوع من التحيّز انتقال ظلم الواقع إلى التقنية. فالخوارزميات بدلًا من أن تعالج الانحرافات المجتمعية، تضخمها. والإسلام يرفض هذا النوع من الاستسلام للواقع المنحرف، ويدعو إلى تصحيح البيئة لا إعادة إنتاجها. فالاعتماد على «الواقع كما هو» يجعل الذكاء الاصطناعي شريكًا غير مباشر في ترسيخ الظلم، وهذا ينسف ادّعاء الحياد الأخلاقي.
التحيز الخوارزمي: الخوارزمية، على الرغم من كونها كودًا رياضيًّا، تعكس اختيارات عقل بشري، لكن لا يمكن أن تكون محايدة؛ لأن كل اختيار فيها -من معيار التصنيف إلى آلية الترجيح- يحمل بُعدًا قيميًّا. فادّعاء الموضوعية في التصميم هو مغالطة معرفية؛ لأنه يغفل أن كل تقنية محمّلة برؤية للعالم، وهذا يجعل الحياد الظاهري غطاءً لتواطؤ غير واعٍ.
التحيز في التمثيل: إن عدم تمثيل فئات كاملة بشكل كافٍ يعني نفي وجودها فعليًّا من المنظومة الرقمية، وهذا نوع من الإقصاء الصامت. والعدل في التصور الإسلامي لا يقر بهذا النوع من الظلم، بل يُلزم بمراعاة الضعفاء والمهمَّشين. فالتمثيل غير العادل يُحوِّل التقنية إلى مرآة نخبوية لا تعبّر عن الواقع بعدل ولا عن التنوع الإنساني بصدق.
التحيز الثقافي والقيمي: تعميم منظومة قيم واحدة -كالنموذج الليبرالي الغربي- في أنظمة الذكاء الاصطناعي يؤدي إلى صدام مع السياقات الأخلاقية والدينية الأخرى. وهذا يُظهر مركزية ثقافية مضمَرة في تصميم الخوارزميات. يجب ألا يُفرض على العالم نموذج ثقافي واحد باسم «التطوّر»، وإلا صار الذكاء الاصطناعي أداة استعمار معرفي جديد.
التحيز اللغوي: اللُّغة ليست فقط وسيلة تواصل، بل حاملة للهوية الثقافية. وتجاهل لغات الشعوب في تقنيات الذكاء الاصطناعي يعمّق الفجوة المعرفية، ويقصي ثقافات بأكملها من المشهد الرقمي. كما أن انعدام تطوير أدوات دقيقة للغات غير الإنجليزية يُعدّ ظلمًا معرفيًّا يُهدّد مبدأ التنوع الحضاري، الذي يُعدّ إحدى صور التكريم الإلهي للبشر: ﴿وَجَعَلْنَاكُمْ شُعُوبًا وَقَبَائِلَ لِتَعَارَفُوا﴾ [الحجرات: 13].
ومع أهمية هذا النقد، لا بد من التمييز بين التحيّز الناتج عن قصدٍ إقصائي، والتحيّز الناتج عن غياب المشاركة الفاعلة؛ إذ لا يمكن إنكار أن هيمنة اللغة الإنجليزية في الأنظمة الرقمية تعود -في كثير من الأحيان- إلى كونها لغة الإنتاج التقني والمعرفي في البيئات المطوّرة لتلك الأنظمة. ومع ذلك، فإن التقصير في تمثيل لغات الشعوب الأخرى -ومنها العربية- لا يُعفي من النقد، وبخاصة إذا أفضى إلى غياب العدالة التمثيلية، وتكريس النظرة الأحادية.
ومن منظور إسلامي، فإن الاكتفاء برصد الخلل وحده لا يكفي، بل يجب الارتقاء إلى مستوى المسؤولية الحضارية، بالسعي إلى: إنتاج محتوى عربي ثري، وتطوير أدوات تفاعلية دقيقة، والمشاركة في بناء النماذج اللغوية. فالعدالة اللغوية لا تُمنح، بل تُنتزع بالوعي والمعرفة. وإذا لم نكن جزءًا من صناعة التقنية، فسنبقى خارج صورتها.

وقائع ميدانية تدعم التحليل
إن مظاهر التحيّز الخوارزمي التي جرى تحليلها سابقًا لا تبقى حبيسة التحليل النظري، بل تؤكدها وقائع تطبيقية معاصرة، تسلّط الضوء على الإشكاليات الأخلاقية العميقة في تصميم الخوارزميات وتغذيتها بالبيانات. هذه الشواهد تعكس امتداد المشكلة من الفضاء الأكاديمي إلى الواقع العملي، وفيما يلي أبرزها:
التحيّز في القضاء الأميركي (COMPAS): خوارزمية تقييم الجريمة في أميركا أظهرت تحيزًا ضد السود، حيث صنفهم على أنهم مجرمون محتملون بمعدلات أعلى من غيرهم، على الرغم من تماثل المعطيات. (Angwin et al.2016)
التمييز العنصري في الصور (Google Photos): صنّف التطبيق أشخاصًا سودًا كـ «غوريلات»؛ بسبب نقص التنوع في بيانات التدريب. (zhang, 2015)
نظام التوظيف في أمازون (Amazon): خوارزمية فضّلت الذكور تلقائيًّا؛ بسبب انحياز تاريخي في البيانات. (Dastin, 2018).
ولم تتوقف مظاهر التحيّز على ما جرى تداوله في السنوات الأولى من انتشار الذكاء الاصطناعي، بل ظهرت شواهد حديثة حتى عام (2025م) تؤكد أن هذه الإشكالية لا تزال قائمة، بل تتعمق كلما زاد على الخوارزميات في اتخاذ القرارات، ومنها:
تصفية المحتوى الثقافي –(2023-2024) You tube- Tik tok: تقارير كشفت أن بعض الخوارزميات كانت تخفّض وصول المحتوى المرتبط بالقضية الفلسطينية أو الثقافات غير الغربية. المصدر: (NYTimes, Electronic Frontier Foundation).
التمييز اللغوي في التوظيف- أستراليا (2025م): أظهرت دراسة أجرتها جامعة موناش أن أنظمة التوظيف المعتمدة على المقابلات الآلية بالفيديو تظهر تمييزًا ضد المتحدثين بلهجات غير إنجليزية، حيث سجّلت نسبة رفض لهؤلاء المتقدمين أعلى بنسبة 22٪ مقارنة بالناطقين الأصليين؛ وذلك بسبب انحياز الخوارزميات إلى نبرات معينة وطرائق تعبير نمطية. (The Guardin, 2025)
تحيّز لغوي وثقافي عابر للغات- Stanford MIT (2025) : بيّنت دراسة أجرتها مختبرات الذكاء الاصطناعي أن النماذج اللغوية الكبيرة (LLMs) تُظهر تحيزًا في تفسير المفاهيم عند الانتقال من اللغة الإنجليزية إلى لغات أخرى، حيث يُعاد إنتاج صور نمطية غربية حول الجندر أو الدين ضمن بيئات لغوية مغايرة. (Wired, 2025)
نحو وعي نقدي للتحيّز في ضوء الرؤية الإسلامية للعدل: إن مظاهر التحيّز في الذكاء الاصطناعي ليست حالات عرضية، بل هي نتائج بنية معرفية وقيمية تتسرّب إلى التقنية بوساطة الإنسان الذي يصمّمها، فحين تُبنى الخوارزميات على بيانات غير متكافئة، أو تُوجَّه برؤى ثقافية أحادية، فإن ادعاء الحياد فيها هو محض وهم.
ومن منظور إسلامي، فإن الإنصاف لا يقتصر على كشف التحيّز، بل يتطلب إعادة تصميم المسار نحو «تصويب العدل»، من خلال تفعيل المقاصد الأخلاقية في التصميم، وضبط مدخلات التقنية بمعايير توازن بين الواقع والقيم، وتمنع استبداد التقنية على حساب الإنسان. فالعدالة في التصور الإسلامي ليست الحياد الجاف، بل هي الإنصاف الواعي الذي يراعي الفروقات، ويُرجّح المصلحة الأخلاقية، ويوازن بين حرية القرار ومقتضيات الكرامة. ولا يمكن تحقيق هذا إلا بإعادة التفكير في مرجعيات التصميم، ومساءلة من يملك القرار الخوارزمي، ومن يتحكم في آلياته، وتصحيح الانحياز التاريخي في قواعد التدريب، وإشراك علماء الشريعة والفكر في صياغة السياسات التقنية العادلة.
إن الحياد الخوارزمي لا يمكن الوثوق به ما لم يُبْنَ على قواعد أخلاقية صريحة، تتجاوز الحياد الظاهري إلى عدالة حقيقية تُدرك الإنسان بوصفه قيمة لا بيانًا. وبهذه القواعد يمكن تقريب الذكاء الاصطناعي من العدالة، لا بوصفه حاكمًا منزّهًا، بل بوصفه أداة بشرية يجب ضبطها.
العدالة الرقمية ومصير المجتمعات المسلمة:
تحذير من تهميش قيمي
إن غياب العدالة في تصميم الخوارزميات لا يؤثر في نتائج تقنية فحسب، بل يعيد تشكيل الوعي، وتوجيه السلوك، وصياغة الصورة الذهنية عن الأفراد والمجتمعات. وفي هذا السياق، تبدو المجتمعات المسلمة مهددة بمزيد من التهميش المعرفي والثقافي، ليس فقط من خلال غياب تمثيلها العادل، بل عبر تشويه حضورها الرقمي، أو حصرها في قوالب نمطية تغيب عنها أصالة القيم الإسلامية.
فحين تُبنى المنصات الكبرى على نماذج قيمية غربية محضة، فإنها تميل -بوعي أو بغير وعي- إلى إقصاء كل ما لا يشبهها، وهذا ما يجعل الخوارزميات لا تُظهر التنوع البشري كما هو، بل كما تراه «العدسة المهيمنة». وفي ظل هذا المشهد، تصبح الأخلاق الإسلامية عرضة للتشويه أو التجاهل، ويُعاد تشكيل وعي الناشئة ضمن بيئات رقمية لا تراعي السياق الثقافي والديني.
ولهذا فإن التراخي في مساءلة الذكاء الاصطناعي يعني التنازل عن حق أصيل: حق الوجود بعدالة في الفضاء الرقمي، وحقّ التعبير عن منظومة أخلاقية مختلفة. وإن لم تتحرك النخب المسلمة للمطالبة بإعادة تشكيل المعايير الرقمية، فإنها ستُترك في الهامش، يُعاد تعريفها من خارجها، وتُصاغ صورتها وفق قيم غيرها، وهذه بداية الاستلاب الحضاري من الباب الخلفي.
توصيات:
- مراجعة السياسات التقنية من منظور أخلاقي مقاصدي.
- دعم مبادرات البحث في الجامعات الإسلامية لفلسفة الذكاء الاصطناعي.
- إشراك علماء الشريعة والفكر في لجان المراجعة الرقمية.
- بناء منصات بيانات مفتوحة تحكمها معايير أخلاقية واضحة وشاملة.
- تعزيز مفهوم العدالة المعرفية في السياسات التقنية والتعليمية.
- دعم تطوير الموارد اللغوية للغات غير الإنجليزية في أنظمة الذكاء الاصطناعي، من خلال مبادرات بحثية وشراكات تقنية، تسعى لبناء نماذج لغوية دقيقة، تراعي الخصوصيات الثقافية، وتسهم في تحقيق العدالة التمثيلية داخل المنظومات الرقمية.
- دعم إنشاء هيئات رقابة أخلاقية مستقلة تُعنى بتقويم أنظمة الذكاء الاصطناعي من منظور قيمي وثقافي، على أن تضم في عضويتها علماء الشريعة والفكر والأخلاق الرقمية؛ لضمان مراعاة الخصوصيات الحضارية في السياسات التقنية، وتعزيز المساءلة في مواجهة التحيّزات الرقمية.
وختامًا:
إن الإصرار على تصوير الخوارزميات على أنها كيانات محايدة هو اختزال للواقع، وتبرئة ضمنية لمصمميها من المسؤولية الاخلاقية. وإذا أردنا مستقبلًا رقميًّا أكثر إنصافًا فعلينا مساءلة الأدوات والوعي بمحدودياتها، وعدم التسليم لها بوصفها مرجعًا نهائيًّا للحقيقة.
فلا حياد في التقنية دون وعي، ولا عدالة رقمية دون مساءلة. فالخوارزميات تعكس القيم التي صممت بها، ولا يمكن الركون إلى عدالة مصطنعة تخفي تحيزات واقعية. ولهذا يجب ضبطها، ومراقبة أثرها، وإعادة توجيهها نحو الخير العام والكرامة الإنسانية.