
نقدم لكم مقالًا هامًا وجديدًا بعنوان: “الذكاء الاصطناعي والمسؤولية القانونية: من يُحاسَب عندما تخطئ الآلة؟”، من جريدة هرم مصر، المنشور بتاريخ الثلاثاء 20 يناير 2026، الساعة 01:33 صباحًا.
بقلم: سمر ضو*
في عالم يشهد تسارعًا هائلًا في تبني الذكاء الاصطناعي عبر مختلف القطاعات، تتزايد الأصوات التي تؤكد أن هذه التكنولوجيا، رغم قدراتها المتقدمة، ليست بمنأى عن الأخطاء أو التحيّز أو سيناريوهات الفشل، الأمر الذي يفتح نقاشًا جوهريًا حول مدى أمان الاعتماد عليها، وإمكانية مساءلتها قانونيًا، وتحديد المسؤولية عند وقوع الأخطاء، خاصة في ظل غياب أطر قانونية واضحة تواكب سرعة تطورها وانتشارها.
تحدي “هلوسات الذكاء الاصطناعي”
على الرغم من ثقة عدد كبير من المستخدمين والمؤسسات في الذكاء الاصطناعي كأداة موضوعية، إلا أنه قد ينتج معلومات خاطئة أو مضللة تبدو صحيحة بثقة عالية، وهي ظاهرة تعرف بـ “هلوسات الذكاء الاصطناعي”. يشير هذا المصطلح إلى قدرة النماذج الذكية على تقديم إجابات غير دقيقة تظهر في الظاهر كأنها صحيحة تمامًا، وقد تتراوح هذه الهلوسات بين أخطاء بسيطة مثل تواريخ مغلوطة، وتصل إلى أمور أكثر خطورة كإنشاء مراجع علمية وهمية أو اختراع أحداث لم تقع أبدًا.
أسباب الهلوسات ومخاطرها العملية
تُعزى الأسباب الرئيسية لهذه الهلوسات إلى نقص جودة البيانات التي تُدرب عليها النماذج، أو ميل الذكاء الاصطناعي لإكمال الفجوات بمعلومات مفترضة، بالإضافة إلى أن بعض النماذج مصممة لتقديم إجابات سلسة، مما يدفعها لاختلاق المعلومات بهدف إرضاء المستخدم بسرعة. وبالفعل، شهدنا حالات شهيرة لهلوسة الذكاء الاصطناعي، أبرزها اعتماد محامٍ على مخرجات نظام ذكي تضمنت قضايا قانونية غير موجودة، وإصدار توصيات طبية خاطئة من أدوات ذكية دون سند علمي موثوق، مما يسلط الضوء بوضوح على خطورة هذه الظاهرة وتأثيراتها المحتملة.
دراسة حالة: حادثة مدرسة كينوود الثانوية
لتوضيح كيف يمكن أن تتحول هذه الهلوسات التقنية إلى آثار عملية ملموسة، يمكننا استعراض حادثة مدرسة كينوود الثانوية التي كشفت عن المخاطر الأمنية المباشرة لاعتماد أنظمة الذكاء الاصطناعي دون رقابة بشرية. ففي تشرين الأول/أكتوبر 2025، شهدت المدرسة الواقعة في مدينة بالتيمور، إحدى أكبر مدن ولاية ميريلاند الأمريكية، حادثة أثارت جدلًا واسعًا حول الثقة في أنظمة الذكاء الاصطناعي بالبيئات التعليمية والأمنية، حيث أخطأ نظام كشف يعمل بالذكاء الاصطناعي في تحديد كيس رقائق بطاطس بحوزة طالب يبلغ من العمر 16 عامًا، واعتبره سلاحًا ناريًا، مما دفع الشرطة إلى التدخل الفوري. ووفقًا لإفادة الطالب، فقد أنهى تناول كيس الرقائق ووضعه في جيبه قبل أن يتفاجأ بعد حوالي 20 دقيقة برجال شرطة يوجهون أسلحتهم نحوه ويأمرونه بالاستلقاء أرضًا، وقد كشفت هذه الحادثة بوضوح مخاطر الأخطاء التقنية عندما تُترجم مباشرة إلى إجراءات أمنية قسرية، وأعادت طرح أسئلة جدية حول حدود الثقة في الذكاء الاصطناعي، ومسؤولية الجهات التي تعتمد عليه دون تحقق بشري كافٍ.
غياب المساءلة المباشرة للذكاء الاصطناعي
لا تُحاسب أنظمة الذكاء الاصطناعي على أخطائها بشكل مباشر، بل تنعكس تلك الأخطاء على الواقع من خلال تأثيرها في القرارات البشرية والمواقف العملية، وغالبًا ما يقتصر التعامل مع الخطأ بعد وقوعه على اعتذار أو توضيح تصدره الشركات المطورة، دون مساءلة تقنية أو قانونية فعلية. في هذا الإطار، كشف تحقيق أجرته صحيفة الغارديان أن خدمة الذكاء الاصطناعي “AI Overviews” قدمت معلومات غير دقيقة ومضللة عند الاستفسار عن فحوصات الدم، مما اضطر شركة جوجل إلى إزالة بعض ملخصات المعلومات الصحية التي ينتجها الذكاء الاصطناعي، بعد أن تبين أن محتواها قد يعرض المستخدمين لخطر الأذى نتيجة معلومات كاذبة أو مضللة، وليس ببعيد عن ذلك، أظهرت حوادث متكررة أن أنظمة توليد النصوص المدعومة بالذكاء الاصطناعي قامت باختلاق تصريحات أو نسب أقوال غير صحيحة إلى شخصيات عامة وصحفيين، وقدمتها للمستخدمين بصيغة تبدو موثوقة.
إشكاليات المسؤولية القانونية والجنائية للذكاء الاصطناعي
بناءً على ما سبق، أثار التطور المتسارع لتقنيات الذكاء الاصطناعي إشكاليات قانونية عميقة، خصوصًا في مجال المسؤولية الجنائية، حيث لم تعد الأفعال الضارة حكرًا على السلوك البشري المباشر، بل أصبحت ناتجة أحيانًا عن أنظمة ذكية تتخذ قرارات مستقلة نسبيًا. وتتمثل الإشكالية الجوهرية في مساءلة الذكاء الاصطناعي جنائيًا في غياب الشخصية القانونية له، إذ إن القوانين الجنائية التقليدية تفترض أن الجريمة لا تُرتكب إلا من شخص يتمتع بالإدراك والتمييز والقدرة على توجيه الإرادة، وبما أن أنظمة الذكاء الاصطناعي تفتقر إلى الوعي والإرادة الذاتية بالمعنى القانوني، فإن إخضاعها للمساءلة الجنائية المباشرة يثير إشكالات نظرية وعملية معقدة. من هنا، برز السؤال حول ما إذا كان بالإمكان الاعتراف للذكاء الاصطناعي بشكل من أشكال الشخصية القانونية المستقلة، على غرار الأشخاص الاعتباريين، بهدف تحميله المسؤولية الجنائية، وفي المقابل، يذهب اتجاه آخر إلى تحميل المسؤولية الجنائية للأشخاص الطبيعيين أو الاعتباريين المرتبطين بنظام الذكاء الاصطناعي، مثل المبرمج أو المصنّع أو المشغل أو المستخدم، استنادًا إلى درجة السيطرة أو الإهمال أو الخطأ في التصميم أو التشغيل، وفي ضوء هذه التحديات، يدعو العديد من الباحثين إلى تطوير أطر قانونية جديدة للمساءلة الجنائية عن أفعال الذكاء الاصطناعي، تقوم على مزيج من المسؤولية الجنائية والتنظيمية والوقائية، وتشمل هذه الأطر فرض التزامات قانونية صارمة على المطورين والمشغلين، وتعزيز معايير الشفافية، وإخضاع الأنظمة الذكية للرقابة المسبقة.
جهود تنظيم الذكاء الاصطناعي عالميًا
استجابة لهذه المخاطر المتزايدة، بدأت بعض الدول في وضع أطر قانونية تهدف إلى تنظيم استخدام الذكاء الاصطناعي، مع تركيز خاص على الأنظمة عالية المخاطر، في محاولة لتحديد المسؤولية وتقليل الضرر المحتمل. وعلى المستوى الدولي، تُعد محاولات الاتحاد الأوروبي التنظيمية من أبرزها، حيث أصدر “قانون الذكاء الاصطناعي الأوروبي” (EU AI Act)، الذي يصنّف أنظمة الذكاء الاصطناعي وفقًا لمستوى خطورتها، ويفرض التزامات صارمة على الأنظمة عالية المخاطر، خاصة تلك المستخدمة في مجالات مثل القضاء والأمن والتعليم والتوظيف.
-المقاربة الواردة لا تعكس بالضرورة رأي مجموعة “النهار” الإعلامية.
