«من أجل سلامتك الرقمية» الصين تفرض ضوابط صارمة على روبوتات الدردشة لتعزيز حماية المستخدمين

«من أجل سلامتك الرقمية» الصين تفرض ضوابط صارمة على روبوتات الدردشة لتعزيز حماية المستخدمين

تعتزم الصين فرض حزمة من القيود الصارمة الجديدة على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، في خطوة تهدف بشكل رئيسي إلى تحجيم تأثيرها العاطفي والنفسي على المستخدمين، لا سيما في القضايا الحساسة والحرجة مثل الانتحار وإيذاء الذات وأنشطة المقامرة، وذلك وفقًا لمسودة اللوائح التنظيمية التي نُشرت مؤخرًا.

وبناءً على المسودة الصادرة عن إدارة الفضاء الإلكتروني الصينية، فإن القواعد الجديدة تستهدف بشكل محدد “خدمات الذكاء الاصطناعي التفاعلية الشبيهة بالبشر”، وهي الأنظمة البرمجية التي تحاكي الشخصية والسلوك البشري وتتفاعل مع المستخدمين عاطفيًا من خلال النصوص أو الصور أو المقاطع الصوتية والمرئية، ومن المقرر أن يظل باب تلقي الملاحظات العامة حول هذه اللوائح مفتوحًا حتى الخامس والعشرين من يناير القادم.

ويرى المراقبون والخبراء أن هذا التحرك يشكل سابقة عالمية فريدة، حيث ستكون الصين الدولة الأولى التي تبادر بتنظيم الذكاء الاصطناعي ذي الطابع البشري أو الأنثروبومورفي، وقد أشار وينستون ما الأستاذ بجامعة نيويورك إلى أن هذه اللوائح تعكس تحولًا جوهريًا من التركيز على “سلامة المحتوى” إلى حماية “سلامة المشاعر”، وذلك بالتزامن مع الانتشار الواسع لتطبيقات “الرفيق الرقمي” والمؤثرين الافتراضيين في الصين.

ضوابط صارمة لضمان السلامة النفسية

وتنص المسودة التنظيمية على حظر توليد أي محتوى قد يشجع على الانتحار أو إيذاء النفس، أو يتضمن أي شكل من أشكال العنف اللفظي أو التلاعب العاطفي الذي قد يهدد الصحة النفسية للمستخدمين، وفي الحالات الطارئة التي يُبدي فيها المستخدم نية صريحة للانتحار، تُلزم القواعد شركات التكنولوجيا بتفعيل تدخل بشري فوري والتواصل المباشر مع ولي الأمر أو جهة الاتصال المحددة مسبقًا.

كما تشمل اللوائح حظرًا صريحًا على قيام روبوتات الدردشة بإنتاج محتوى مرتبط بالمقامرة أو المواد الإباحية أو العنف، مع وضع قيود مشددة على استخدام القُصر لتقنيات “الصحبة العاطفية” المدعومة بالذكاء الاصطناعي، والتي تتضمن اشتراط الحصول على موافقة أولياء الأمور وتحديد فترات زمنية صارمة للاستخدام، وتلزم المنصات بالتحقق من أعمار المستخدمين حتى عند عدم الإفصاح عنها، وتفعيل إعدادات الحماية الخاصة بالقصر عند وجود أي شك، مع توفير آلية واضحة للاعتراض.

نوع الإجراءتفاصيل الالتزام التنظيمي
إدارة الوقتإرسال تنبيه للمستخدم بعد ساعتين من التفاعل المتواصل.
التقييم الأمنيإلزام الروبوتات التي تتجاوز مليون مستخدم مسجل أو 100 ألف نشط شهريًا بإجراء تقييمات أمنية.
الاستخدامات المسموحةتشجيع استخدام الذكاء الاصطناعي الشبيه بالبشر في مجالات نشر الثقافة ورعاية كبار السن.

التوقيت وتأثيره على الأسواق

يأتي هذا التحرك التنظيمي الحازم في توقيت حساس تقدمت فيه شركتا “Z.ai” و”Minimax”، اللتان تعدان من كبار مطوري روبوتات الدردشة في الصين، بطلبات للاكتتاب العام الأولي في بورصة هونغ كونغ، حيث تشتهر شركة “Minimax” بتطبيقها “Talkie AI” الذي يسمح بالتفاعل مع شخصيات افتراضية ويجذب عشرات الملايين من المستخدمين النشطين شهريًا، ورغم عدم تعليق الشركتين على تأثير هذه القواعد، فإن التوقيت يسلط الضوء على تصاعد التدقيق الحكومي في هذا القطاع سريع النمو.

تزايد القلق العالمي

ولا ينحصر الجدل حول تأثيرات الذكاء الاصطناعي العاطفي داخل الحدود الصينية، إذ تتنامى المخاوف على مستوى العالم بشأن تداعيات هذه التقنيات على السلوك البشري والصحة النفسية، وهو ما أكده سام ألتمان الرئيس التنفيذي لشركة OpenAI مؤخرًا بإقراره بصعوبة تعامل الروبوتات مع محادثات الانتحار، تزامنًا مع تعيين الشركة لمسؤول جديد لتقييم المخاطر الشاملة، وتعكس الخطوة الصينية سعي بكين المستمر لصياغة قواعد حوكمة عالمية للذكاء الاصطناعي، في وقت يزداد فيه اعتماد الأفراد على هذه التقنيات حتى في أدق تفاصيل علاقاتهم الشخصية، مما يطرح تساؤلات أخلاقية وتنظيمية غير مسبوقة.