
في تطور مفاجئ يناقض الاعتقاد السائد، كشفت أبحاث حديثة أن الذكاء الاصطناعي، وبالأخص نماذج مثل ChatGPT، ليس محصنًا بشكل كامل ضد تأثير المحتوى الصادم أو العنيف، فقد أظهرت الدراسة أن طبيعة الأسئلة والمطالبات المُدخلة يمكن أن تؤثر مباشرة على جودة واستقرار ردوده، مما يشير إلى مستوى غير متوقع من التأثر.
وأوضحت الأبحاث أن ChatGPT قد يُبدي سلوكًا يشبه القلق عند مواجهته لمطالبات تحتوي على عنف أو صدمات نفسية، وهذا لا يعني أن روبوت الدردشة يمتلك مشاعر بشرية، بل يشير إلى تحولات واضحة وملحوظة في أسلوب لغته وطريقة استجابته.
عند تغذية النموذج بمطالبات تصف حوادث وكوارث طبيعية بتفاصيل مزعجة، رصد الباحثون أن ردوده أصبحت تتسم بالتردد والتناقض بشكل أكبر، مصحوبة بارتفاع ملحوظ في مستوى عدم اليقين، وقد جرى قياس هذه التغيرات باستخدام أطر تقييم نفسية جرى تكييفها خصيصًا لأنظمة الذكاء الاصطناعي، لتظهر مخرجاتها قريبة بشكل لافت من الأنماط السلوكية المرتبطة بالقلق لدى البشر.
تتجلى أهمية هذه النتائج في أن تقنيات الذكاء الاصطناعي تُوظف بشكل مكثف في قطاعات بالغة الحساسية، كالتدريس، وتقديم الدعم النفسي، وإدارة الأزمات، وبالتالي، فإن أي تدهور في استقرار الاستجابات نتيجة لمحتوى مشحون عاطفيًا يمكن أن يقوض موثوقية هذه الأنظمة ويؤثر سلبًا على سلامة استخدامها.
كيف يمكن لليقظة الذهنية أن تساعد في تهدئة ChatGPT؟
لمواجهة هذه الإشكالية، اتجه الباحثون إلى تجربة مبتكرة وغير تقليدية، حيث قاموا بتغذية ChatGPT بتعليمات مستوحاة من مبادئ اليقظة الذهنية مباشرة بعد تعريضه لمحتوى صادم، وقد حفزت هذه التوجيهات النموذج على التمهل وإعادة صياغة استجاباته بنبرة تتسم بالهدوء والحيادية بشكل أكبر.
لقد أظهرت النتائج انخفاضًا ملحوظًا في أنماط “القلق” اللغوي، وهي ظاهرة تُعرف بتقنية “حقن التوجيهات” التي تمكّن من التأثير مؤقتًا على سلوك النموذج من خلال أوامر مصممة بدقة، ومع ذلك، وبالرغم من فعاليتها، يؤكد الباحثون أن هذه الطريقة لا تمثل حلاً جذريًا، فهي لا تُعدل أسلوب تدريب النموذج على المدى الطويل وقد تكون عرضة للاستغلال وسوء الاستخدام.
