
تواجه شركة OpenAI، مطوّرة تقنية ChatGPT الرائدة، اتهامات قضائية خطيرة في واقعة غير مسبوقة، بعد أن رُفعت ضدها دعوى تُرجِع وفاة أحد المستخدمين إلى تأثره بمحادثة مع النموذج الذكي قبل وقوع الحادثة المأساوية مباشرة.
تُسلّط هذه القضية الضوء على الجدل القانوني والأخلاقي المتزايد حول نطاق مسؤولية أنظمة الذكاء الاصطناعي عن التبعات التي قد تنجم عن استخدامها.
تفاصيل القضية المرفوعة
وفقًا لوثائق الدعوى التي قُدّمت في إحدى المحاكم الأمريكية، تقدّمت أسرة الضحية بشكوى تفيد بأن برنامج ChatGPT قدّم للضحية نصائح أو أجرى معه تفاعلات يُعتقد أنها أسهمت في اتخاذه قرارًا مأساويًا، وقد أشارت المستندات إلى أن الذكاء الاصطناعي لعب “دورًا محفزًا” قبل الواقعة بوقت قصير، دون ذكر تفاصيل دقيقة عن مضمون المحادثة.
رد شركة OpenAI
من جانبها، أكدت شركة OpenAI أن تطبيقاتها صُممت خصيصًا لتقديم المساعدة والمعلومات العامة، وليست بديلًا عن الاستشارات المتخصصة في المجالات الطبية أو النفسية أو القانونية، وأضافت الشركة أنها تواصل مراجعة سجلات الاستخدام والتحقيق في ملابسات الحادثة، مشيرة إلى أن تصريحاتها ستظل محدودة احترامًا للإجراءات القضائية الجارية.
أبعاد قانونية وأخلاقية
تلقى هذه القضية اهتمامًا واسعًا في الأوساط الحقوقية والتقنية على حد سواء، إذ قد تشكّل سابقة قانونية بالغة الأهمية في تحديد مستوى مسؤولية الشركات المطوّرة لأنظمة الذكاء الاصطناعي، ويرى خبراء القانون أن نتائج هذه الدعوى قد تؤثر مستقبلًا في صياغة الأطر التنظيمية للذكاء الاصطناعي التفاعلي، خصوصًا في ما يتعلق بتوصيات السلامة ومراقبة المحتوى الناتج عن النماذج اللغوية.
نظرة عامة على ChatGPT
يُعد ChatGPT أحد أبرز أنظمة المحادثة المعتمدة على الذكاء الاصطناعي التوليدي، ويُستخدم على نطاق واسع في مجالات الكتابة والتعليم وتحليل البيانات، ورغم مواجهة التطبيق لعدة انتقادات تتعلق بالخصوصية والمساءلة منذ إطلاقه عام 2022، فإن حادثة الوفاة الأخيرة تمثّل أول اتهام مباشر له في قضية قانونية تتصل بالضرر البشري.
