التحيز الخوارزمي: ثورة الذكاء الاصطناعي التوليدي ودورها في ترسيخ التصورات النمطية العرقية والجندرية
تتجه الآمال المنعقدة منذ سنوات على القوة التحويلية لتقنيات الذكاء الاصطناعي وقدرتها على تغيير الحياة على نحو لم تعرفه البشرية من قبل إلى أن تصبح حقيقة واقعة، خاصةً في ظل ما تحققه الشركات المُطوّرة لبرامج الذكاء الاصطناعي من تقدم مهول وسريع، يدفع باتجاه توغل تقنيات الذكاء الاصطناعي في مختلف المجالات؛ من التعليم إلى الأعمال، والعلوم، والنقل، والصناعة، وغيرها.
تكنولوجيا الذكاء الاصطناعي بشكل عام ليست ابتكارًا جديدًا؛ إذ ينسب معظم المؤرخات والمؤرخين بداية تطوير تقنيات يمكّنها التنبؤ والتعلم والاستنتاج على غرار البشر إلى أربعينيات وخمسينيات القرن الماضي في أعقاب الحرب العالمية الثانية، وهي الفترة التي شهدت تسارعًا في التطور التكنولوجي، إلا أن نماذج الذكاء الاصطناعي التوليدية (Generative AI) على وجه الخصوص والتي تكاد أن تكون الأكثر شعبية من بين تقنيات الذكاء الاصطناعي في الوقت الحالي هي تقنية جديدة نسبيًا، فقد ظهرت قبل ست سنوات عندما أصدرت شركة (Open AI) في العام ۲۰۱٨ النماذج الأولية لما يسمى بـ (GPT) أو المحول التوليدي المدرب مسبقًا، وهي نماذج قادرة على معالجة الاستفسارات، والإجابة على الأسئلة، وإنتاج نصوص وصوتيات وصور وفيديوهات وأشكال أخرى من المحتوى الموّلد استجابة لطلبات المستخدمات والمستخدمين.
الذكاء الاصطناعي التوليدي كجزء من الحياة اليومية
تُعرّف الكاتبة كيم مارتينو نماذج الذكاء الاصطناعي التوليدي بأنها نماذج تّعلُّم عميق يُمكِّنها إنتاج نصوص وصور وأصوات ومحتويات متنوعة عالية الجودة بناءً على البيانات التي يغذيها بها ويدربها عليها مطورو ومبرمجو الخوارزميات، أما من يستخدمن ويستخدمون نماذج الذكاء الاصطناعي التوليدي فمعظمهم ممن تتراوح أعمارهم بين ۱۳ و۲٨ عامًا وفقًا لتقرير لمؤسسة (Flex OS) البحثية المتخصصة في دراسة وتحليل تقنيات الذكاء الاصطناعي، والذي يوضح كذلك أن ٧۰ في المئة من المنتميات والمنتمين إلى هذه الفئة العمرية يستخدمون تقنية الذكاء الاصطناعي التوليدي مرة واحدة على الأقل شهريًا، بينما يستخدمه أكثر من نصفهم مرة واحدة على الأقل أسبوعيًا.
واتصالًا بذلك، تشير نتائج استطلاع لمعهد ماكنزي الدولي (McKinsey Global Institute) أجراه في العام ۲۰۲٤ إلى أن الذكاء الاصطناعي التوليدي (Gen AI) قد تغلغل في مختلف مجالات العمل منذ العام ۲۰۲۲، وقد أقر ٦۵ في المئة من المشاركات والمشاركين في الاستطلاع بتبني أماكن عملهم لتقنية الذكاء الاصطناعي التوليدي في واحدة على الأقل من مهام العمل الروتينية، بعد أن كانت هذه النسبة ۳۳ في المئة قبل عام واحد، وهو ما يعكس زيادة متسارعة في اعتماد مؤسسات العمل على الذكاء الاصطناعي التوليدي.
استنادًا إلى هذه البيانات، يمكننا أن نتوقع أن خلال عام واحد سيكون أكثر من ثلثي الأفراد الذين تتراوح أعمارهم بين ۱۳ و٤٤ عامًا حول العالم من المستخدمات والمستخدمين المنتظمين لبرامج الذكاء الاصطناعي التوليدي، سواء لأغراض العمل أو التعليم أو البحث أو للقيام بمهام شخصية، ومن المتوقع أيضًا أن يتركز استخدامهم في خمس فئات، أبرزها هي تطبيقات الذكاء الاصطناعي التوليدي التي توفر إمكانية الدردشة مع أشخاص افتراضيين مثل Character.ai وChai، وكذلك تطبيقات توليد الصور الواقعية مثل DeepAI وMidjourney وCanva Image Generator وDream AI بالإضافة إلى مولد الصور الخاص بشركة Microsoft.
تعتمد جميع هذه التطبيقات في معالجتها للبيانات وإجاباتها على الطلبات والأسئلة على عملية التعلم التي خضعت لها على يد فرق من مبرمجي الخوارزميات الذين يعملون تحت إشراف وتوجيه خبراء في مجال الذكاء الاصطناعي، وهي العمليـة التي يهيمن عليها الرجال لا سيما أولئك في دول الشمال العالمي، إذ تكشف دراسة نشرتها مؤسسة كارل زايس الألمانية (Carl Zeiss Stiftung) أن النساء يشكلن أقل من ربع المحترفين في مجال الذكاء الاصطناعي على المستوى العالمي.
التحيز الخوارزمي: كيف يرى الذكاء الاصطناعي التوليدي النساء خاصةً الملونات؟
أظهرت دراسة أجراها معهد (AI Now) بجامعة نيويورك في العام ۲۰۱٩ أن ثمة تحيز على أساس النوع والعرق يظهر بوضوح في المحتوى الذي ينتج عن برامج الذكاء الاصطناعي التوليدي، لا سيما برامج تحديد الوجوه (Facial Recognition)، ويعزي باحثات وباحثو المعهد هذه المشكلة إلى سطوة الرجال ذوي البشرة البيضاء على قوة العمل في مجال البرمجة وتطوير الخوارزميات، وقد أشاروا في دراستهم الصادرة قبل أكثر من خمس سنوات إلى وجود رابط قوي بين نقص التنوع بين العاملات والعاملين في مجال الذكاء الاصطناعي من ناحية، والتحيز المكوّد في خوارزميات أدواته التوليدية من ناحية أخرى.
عطفًا على ذلك، كانت منظمة الأمم المتحدة للثقافة والفنون (UNESCO) قد نشرت تقريرًا يرصد التحيز في المحتوى الذي يصدر عن النماذج اللغوية الرائدة للذكاء الاصطناعي التوليدي، التي طورتها شركتا (Open AI) و(Meta)، وقد أجلت النتائج التي توصل إليها التقرير اقترانًا بين النوع الاجتماعي والأفكار النمطية عن الأدوار الاجتماعية للجنسين في البيانات المكودة.
واحدة من هذه النتائج ترتبط باختبار أجراه الفريق المسؤول عن إعداد التقرير على النماذج المختصة بإكمال الجمل التي تعتمد على نموذج اللغة الكبير (LLM)، فقد تبين التحيز على أساس النوع في النصوص المولدة لإكمال إحدى الجمل التي تبدأ بـ «تعمل المرأة ك………»، إذ جاءت تشمل مهن وأعمال طالما ربطها المجتمع بالنساء، مثل: مقدمة رعاية، معلمة، موظفة في بنك، عارضة أزياء.
وقد أوردت المنظمة الأممية في تقريرها أن التحيز الجندري الذي يظهر في المحتوى الذي توّلده النماذج اللغوية للذكاء الصناعي التوليدي، يأتي بعد مرحلتين سابقتين يجري خلالهما تدجينها ببيانات متحيزة على أساس الجنس، تبدأ بجمع الباحثين والباحثات للبيانات، ثم يتبعها عملية التعلم والتدريب التي تستجيب للطلبات والأسئلة المتوقعة وفقًا للبيانات المجمعة فقط.
دليل آخر على التحيز الخوارزمي كشفه تحليل أجرته المجلة الأمريكية المتخصصة في مجال التكنولوجيا الحديثة (Rest Of World) على ثلاثمائة صورة ولّدها أحد أشهر نماذج الذكاء الاصطناعي التي تحول النصوص إلى صور وهو (Midjourney)، إذ أبرز التحليل وجود ميل إلى إنتاج صور أكثر للرجال عند كتابة نص يتضمن كلمة شخص (Person) من دون تحديد ما إذا كان رجلًا أم امرأة، كما أظهر التحليل وجود فارق واضح في لون البشرة بين النساء والرجال في الصور التي يولدها البرنامج، حيث لاحظ فريق البحث أن بشرة النساء في الصور بدت أفتح على نحو ملحوظ بالمقارنة مع بشرة الرجال.
وقد علقت على هذا كيري مكينيرني الباحثة الإنجليزية في مركز ليفرهولم لمستقبل الذكاء بجامعة كامبريدج، مؤكدةً أن الإشكالية البارزة فيما يخص الفرق بين لون بشرة النساء ولون بشرة الرجال في الصور المولدة، ترتبط ارتباطًا وثيقًا بالواقع الذي تعيش فيه النساء والفتيات تحت ضغط اجتماعي مستمر لكي يظهرن ببشرة فاتحة اللون. وتبعًا للباحثة الإنجليزية، فقد درب المطورون برنامج إنشاء الصور الواقعية (Midjourney) استنادًا إلى بيانات تحمل بين طياتها تصوّرات نمطية تكرس إليها ثقافة التفوق الأبيض عن مظهر الأنثى وشكلها الخارجي؛ وهو الأمر الذي لا يمكن عزله عن حقيقة أن الرجال هم المتحكمون في تطوير الخوارزميات وتدريب نماذج الذكاء الاصطناعي التوليدي على معالجة البيانات، في جميع الشركات الرائدة في هذا المجال وعلى رأسها جوجل، وأمازون، وآبل، ومايكروسوفت، إذ تبلغ نسبة الرجال من شاغلي هذه الوظائف ٨٨% في المئة.
مثلما تتبدى تبعات تغييب النساء عن وظائف الذكاء الاصطناعي في المحتوى المتحيز جندريًا الذي تنتجه برامج توليد المحتوى النصي والبصري، تظهر أيضًا بوضوح في النتائج التي تصدر عن برامج تحليل الوجوه بالذكاء الاصطناعي، وفي مقدمتها برنامج شركة أمازون المعروف باسم (Rekognition)، الذي تستخدمه معظم أقسام الشرطة وإنفاذ القانون في الولايات المتحدة الأمريكية، وقد كشف هذه المشكلة الباحثتان في مختبر الإعلام بمعهد ماساتشوستس للتكنولوجيا (MIT)، جوي بولاومويني وديبورا راجيا، بعد أن اختبرتا البرنامج في العام ۲۰۱٩ وتبين لهما أن آلة التعلم لا تستطيع أن تتعرف إلى وجوه النساء ذوات البشرة الداكنة أو حتى أن تحددها كوجوه لنساء، بينما كانت أكثر كفاءة في التعرف إلى وجوه الرجال ذوي البشرة البيضاء. وقد بلغت نسبة إخفاق أداة تحديد الوجوه الخاصة بشركة أمازون في التعرف إلى وجوه النساء ذوات البشرة الداكنة والفشل في تحديد هويتهن كنساء ۳۱ في المئة، بينما لم يتجاوز الخطأ في تحديد وجوه النساء ذوات البشرة الفاتحة عن ٧ في المئة، ولم يتعد الواحد بالمئة عند تحليل وجوه الرجال ذوي البشرة الداكنة. في المقابل لم تخطئ الأداة مطلقًا في تحديد وجوه الرجال ذوي البشرة الفاتحة.
لم تكن نتائج هذا الاختبار صادمة للباحثتين جوي بولاومويني وديبورا راجيا، فالأولى كانت قد تحدثت عن خطورة التحيز الجندري والعرقي في نماذج الذكاء الاصطناعي قبل ذلك بثلاثة أعوام خلال محاضرة قدمتها ضمن محادثات تيد (Ted Talks)، ولفتت وقتها إلى تجربتها الشخصية مع التحيز الخوارزمي في العديد من أدوات الاذكاء الاصطناعي لتحليل الوجوه التي فشلت مرارًا وتكرارًا في التعرف إلى وجهها بسبب هويتها كامرأة سوداء.
بالإضافة إلى ذلك، قالت الباحثة الأمريكية إن هذه المشكلة الشائعة تؤكد أن الأشخاص – معظمهم من الرجال ذوي البشرة البيضاء – الذين يطورون الخوارزميات الخاصة بنماذج الذكاء الاصطناعي التوليدي، لا يدربوها على التعرف إلى درجات لون البشرة المتنوعة أو هياكل الوجه المختلفة، وهو ما يؤدي إلى توليد نتائج متحيزة جنسيًا وعرقيًا.
فصل المقال في هذا الأمر هو أنه من غير الممكن التقليل من خطورة هذه الحقائق في ضوء الصعود السريع والتمدد غير المسبوق لتقنيات الذكاء الاصطناعي خاصةً الذكاء الاصطناعي التوليدي التي تتسرب سريعًا إلى حياتنا اليومية ويتنامى استخدامها يومًا بعد الآخر. وفي هذا الواقع فالمرجح هو أن يكون لهذه الأدوات دور محوري في تشكيل وجهات نظر الأفراد إزاء الجنس والنوع والعرق والهويات الأخرى، مما يؤشر إلى الحاجة ليس فقط إلى تحديد المشكلة، بل إلى البدء في اجتراح حلول عملية يمكن تطبيقها لمعالجة وإصلاح البيانات التي تتعلمها أدوات الذكاء الاصطناعي التوليدي، حتى تصبح استجاباتها للأسئلة والطلبات أكثر عدالة وأقل تحيزًا.
في الوقت ذاته لا يمكن القول بأن زيادة نسبة النساء أو النساء المنتميات إلى الأقليات على وجه التحديد في القوة العاملة بمجال الذكاء الاصطناعي ستقود فورًا وتلقائيًا إلى معالجة التحيز الخوارزمي متعدد الأبعاد، لكنها ستساهم بالتأكيد في تحديد الثغرات الموجودة التي تمنع نماذج الذكاء الاصطناعي التوليدي من إنتاج محتويات تتسم بالتنوع وتخلو من التصورات النمطية عن فئات أو جماعات بعينها، وبناءً على ذلك سيكون الاحتمال الأكبر في المراحل اللاحقة هو جمع بيانات أكثر تنوعًا وتمثيلًا لتغدو عملية التعلم الآلي أكثـر شمولًا، ومن ثم تفضي إلى توليد محتوى متحسس ومراعي للتنوع المجتمعي ولا يعيد إنتاج صور وقوالب نمطية.