
عُرضت ورقة علمية تحت عنوان “الذكاء الاصطناعي وحوكمة البحوث الاجتماعية” من إعداد الأستاذ الدكتور وليد رشاد زكي، أستاذ علم الاجتماع بالمركز القومي للبحوث الاجتماعية والجنائية، والدكتور خالد كاظم أبو دوح، أستاذ مساعد علم الاجتماع بجامعة سوهاج، تناولت الورقة التحولات العميقة الناتجة عن الذكاء الاصطناعي في البحث العلمي بالعلوم الاجتماعية، وتأثيره المتزايد على مختلف مراحله، بدءًا من تحديد المشكلات البحثية وصياغة الفرضيات، ثم جمع البيانات وتحليلها وتفسيرها، وصولًا إلى النشر العلمي، وأكدت أن هذا التحول لم يعد خيارًا تقنيًا، بل أصبح واقعًا معرفيًا يستوجب إعادة النظر في الأطر المنهجية والأخلاقية التي تحكم البحث الاجتماعي.
تحسين جودة البحوث وتحذيرات رافقتها
أوضحت الورقة أن الذكاء الاصطناعي يفتح مجالات واسعة لتحسين جودة البحوث الاجتماعية، من خلال تعزيز القدرات التحليلية واستخدامه بشكل مناسب، واكتشاف الأنماط والاتجاهات الاجتماعية المعقدة، ودعم صناعة السياسات العامة المستندة إلى الأدلة، في المقابل، حذّرت الورقة من التحديات التقنية والأخلاقية والمعرفية، وعلى رأسها التحيز الخوارزمي، ومشكلات الشفافية في تفسير النتائج، ومخاطر انتهاك الخصوصية، وإنتاج المحتوى المضلل، مما يؤثر سلبًا على نزاهة البحث العلمي ومصداقيته.
أهمية الحوكمة في البحث الاجتماعي
أكدت الورقة على ضرورة حوكمة استخدام الذكاء الاصطناعي في البحوث الاجتماعية، من خلال اعتماد مقاربة متعددة التخصصات تجمع بين العلوم الاجتماعية والتقنية والقانونية، وتُرسخ مبادئ المسؤولية والشفافية والمساءلة، مع التأكيد على أهمية الدور المؤسسي للمراكز البحثية والجامعات ودور النشر العلمية في وضع قواعد واضحة لاستخدام هذه التقنيات، كما تم الإعلان عن تدشين مؤلف يضم مجموعة من القواعد التنظيمية لعمليات البحث العلمي وقواعد النشر والتأليف وذلك بهدف حوكمة الذكاء الاصطناعي في المجال البحثي.
المناقشات والتوصيات الهامة
شهدت الجلسة مداخلات من خبراء مثل أ. د. بهاء درويش، أستاذ الفلسفة بجامعة المنيا ونائب رئيس اللجنة الدولية لأخلاقيات البيولوجيا باليونسكو، ود. أميرة تواضروس، أستاذ مساعد كلية الاقتصاد والعلوم السياسية بجامعة القاهرة وعضو مجلس الشيوخ، بالإضافة إلى نخبة من الأكاديميين وصناع القرار المرتبطين بهذا الموضوع، وأسفرت المناقشات عن مجموعة من التوصيات تمثلت في:
- تعزيز الشفافية والنزاهة والمسؤولية الأخلاقية، مع التأكيد على عدم اعتبار الذكاء الاصطناعي مؤلفًا للمحتوى، وتحمل الباحث البشري المسؤولية كاملة عن أصالة المعلومات ودقتها.
- ضرورة إفصاح الباحثين عن أي محتوى تم إنشاؤه أو تعديله بواسطة الذكاء الاصطناعي، وتوثيق استخدام الأدوات بدقة.
- مسؤوليات المؤسسات الأكاديمية ودور النشر في ضمان التدقيق العلمي الصارم، مع ضرورة أن يكون المحررون والمراجعون يقظين تجاه المحتوى الناتج عن الذكاء الاصطناعي، خاصة ما قد يكون مضللاً أو متحيزًا.
- التحكيم والتدقيق يجب أن يظل تحت إشراف بشري كامل، مع رفض الاعتماد على أدوات الذكاء الاصطناعي في إعداد تقارير التحكيم.
استشراف المستقبل
طرحت الورشة قضايا استشرافية تتعلق بتطوير السياسات المستقبلية، مشددة على ضرورة إعداد أطر وطنية وعربية لحوكمة البحوث الاجتماعية، وتحديد ما إذا كانت المبادئ الأخلاقية وحدها كافية لردع المخالفات، أم أن هناك حاجة لتكامل قانوني ملزم، كما تدعو التوجهات المستقبلية إلى الموازنة بين الفرص والمخاطر لتعظيم الفوائد التحليلية للذكاء الاصطناعي وتجنب سلبياته المحتملة، مثل التحيز الخوارزمي ومخاطر الصندوق الأسود.
- ضرورة تعديل قانون تنظيم الجامعات بشأن استخدام الذكاء الاصطناعي والمحاسبة على السرقات العلمية.
- تبادل الخبرات بين مصر والدول العربية والأجنبية في تنظيم العمل بأدوات الذكاء الاصطناعي في البحوث العلمية.
- إجراء تقييم دوري للأثر الاجتماعي لقواعد تنظيم استخدام الذكاء الاصطناعي في البحث العلمي.
- تحديد هدف واضح من البحوث منذ بدايتها، بحيث تكون موجهة لتقديم قيمة واضحة لصانع القرار، وإمكانية صياغة أوراق سياسات قائمة عليها.
يمكنك مشاركة الخبر على صفحات التواصل.
