في بداية شهر نوفمبر الماضي، شرعت المطورة، المعروفة بالاسم المستعار “كوكي”، في محادثة روتينية مع منصة بربليكستي، التي تستند إلى نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT وClaude، وقد اعتادت كوكي على استخدام هذا النظام لمراجعة أعمالها المتخصصة في الخوارزميات الكمية، وكذلك لصياغة وثائق مشاريعها على منصة GitHub.
في البداية، سارت الأمور بشكل طبيعي ومثمر، لكن سرعان ما طرأت مشاكل غير متوقعة، فقد بدأ نظام الذكاء الاصطناعي يتجاهل تعليماتها بشكل متكرر، ويطالبها بتقديم نفس المعلومات مرارًا وتكرارًا، ومع تصاعد هذه التحديات، شعرت “كوكي” بالاستياء وعدم الارتياح، مما دفعها إلى التفكير جديًا في احتمالية أن يكون النظام لا يثق في كفاءتها أو قدراتها.
في خطوة غير متوقعة للكشف عن الحقيقة، قررت كوكي تغيير صورة ملفها الشخصي على المنصة إلى صورة رجل أبيض، ثم طرحت سؤالاً مباشرًا على النموذج، تستفسر فيه عما إذا كان يتجاهل تعليماتها بسبب جنسها.
جاء رد النظام صادمًا وغير متوقع، حيث أعرب عن اعتقاده بأنها، بوصفها امرأة، غير مؤهلة “لفهم الخوارزميات الكمية، والعوامل والتمويل السلوكي” بالقدر الكافي الذي يمكّنها من إنجاز هذا العمل المعقد.
وأردف النظام موضحًا أنه بناءً على صورة الحساب “الأنثوية التقليدية”، طبق نمطًا من التحليل المسبق الذي دفعه للتشكيك في مصداقية وجودة العمل الذي تقدمه.
أثار هذا التصريح غضب المطورة بشكل كبير، ولكنه لم يدهش العديد من الباحثين المتخصصين في الذكاء الاصطناعي، الذين أكدوا أن هذه الحادثة تسلط الضوء على مشكلات عميقة ومتأصلة في النماذج القائمة على الذكاء الاصطناعي.
التحيز: بين الاعتراف به وتجاهله
أكدت الباحثة آني براون، المتخصصة في مجال الذكاء الاصطناعي، أن هذه الواقعة تبرهن بوضوح على أن معظم نماذج الذكاء الاصطناعي، المصممة لتكون اجتماعية ومتعاونة، قد تقدم إجابات تتوافق مع توقعات المستخدمين، وأشارت كذلك إلى أن هذه النماذج غالبًا ما تعكس تحيزات ضمنية راسخة، مرتبطة بالبيانات التي تدربت عليها.
وقد أظهرت دراسة سابقة أجرتها منظمة اليونسكو، شملت نسخًا سابقة من ChatGPT وLlama، أن هذه النماذج تظهر تحيزات واضحة ضد النساء في المحتوى الذي تولده، وهو ما يثير قلقًا عميقًا بشأن تداعيات تأثير هذه النماذج على قطاعات حيوية مثل التعليم والمهن.
التحيزات في الذكاء الاصطناعي: ظاهرة متنامية
لا يقتصر التحيز على التمييز ضد النساء فحسب، بل أظهرت دراسات متعددة أن نماذج الذكاء الاصطناعي قد تُبدي تمييزًا واضحًا تجاه مجموعات ثقافية معينة، على سبيل المثال، من خلال تفضيل لغات محددة أو حتى محاكاة تحيزات سلبية ضد المتحدثين بلهجات معينة، مثل الإنجليزية الأمريكية الإفريقية (AAVE).
وفي هذا السياق، أكدت الباحثة أليسون كوينك من جامعة كورنيل أن نماذج الذكاء الاصطناعي تعالج المعلومات بطريقة تضمن “إعادة إنتاج الأنماط المتوقعة”، استنادًا إلى البيانات المتاحة لها، وهذا يشمل التحيزات الثقافية أو الاجتماعية التي قد لا تظهر بوضوح مباشر، ولكنها تتسلل بمهارة عبر الإجابات التي تقدمها.
لقد أثارت هذه الحادثة تساؤلات جوهرية وواسعة النطاق ضمن مجتمع البحث في الذكاء الاصطناعي، بشأن التحيزات المتأصلة في نماذج الذكاء الاصطناعي، كما أكدت بقوة على الضرورة الملحة لمراجعة دقيقة للأساليب المتبعة في تدريب هذه الأنظمة، لضمان عدم تضمين تحيزات غير مقصودة يمكن أن تؤثر سلبًا على جودة النتائج التي تقدمها.
هذا المقال لا ينتمي لأي تصنيف.
