«إطار جديد لذكاء اصطناعي مسؤول؟» روما تغلق تحقيق “ديب سيك” بشأن “هلوسة” الذكاء الاصطناعي بعد تعهدات حاسمة لضمان الشفافية والدقة

«إطار جديد لذكاء اصطناعي مسؤول؟» روما تغلق تحقيق “ديب سيك” بشأن “هلوسة” الذكاء الاصطناعي بعد تعهدات حاسمة لضمان الشفافية والدقة

أغلقت هيئة مكافحة الاحتكار الإيطالية تحقيقًا بشأن نموذج الذكاء الاصطناعي الصيني “ديب سيك”، وذلك بعد التوصل إلى اتفاق حول تعهدات ملزمة كشرط لإنهاء القضية، حيث ارتكز التحقيق على تقصير النموذج في تحذير المستخدمين من احتمالية إنتاجه لمعلومات خاطئة. هذا القرار، الذي جاء ليؤكد التزام الهيئة بحماية المستهلكين، تم الإعلان عنه في نشرتها الأسبوعية الدورية يوم الاثنين، وفقًا لما ذكرته وكالة رويترز.

تسوية قضية نموذج ديب سيك للذكاء الاصطناعي

يُعد إغلاق التحقيق علامة فارقة في تنظيم الذكاء الاصطناعي، خاصة فيما يتعلق بالنماذج التي قد تُنتج محتوى غير دقيق، وقد كانت الهيئة، التي تُراقب أيضًا حقوق المستهلك، قد بادرت بفتح هذا التحقيق الشامل في يونيو الماضي، بهدف ضمان شفافية وسلامة استخدام تقنيات الذكاء الاصطناعي.

تفاصيل التحقيق والالتزامات

تضمنت الالتزامات التي قدمتها كل من شركتي هانغتشو ديب سيك للذكاء الاصطناعي وبكين ديب سيك للذكاء الاصطناعي، المالكتين والمشغلتين لنموذج “ديب سيك” بشكل مشترك، حزمة من التدابير الرامية إلى تعزيز الإفصاح عن مخاطر “الهلوسة”، ويُقصد بالهلوسة تلك الحالات التي يقوم فيها نموذج الذكاء الاصطناعي بتوليد مخرجات تحتوي على معلومات غير دقيقة، أو مُضللة، أو حتى ملفقة بالكامل، بناءً على مدخلات معينة يُقدمها المستخدم، مما يستوجب توعية واضحة للمستخدمين بهذه المخاطر المحتملة.

تحسينات في شفافية مخاطر “الهلوسة”

وفي بيان لها ضمن النشرة، أكدت الهيئة أن “الالتزامات التي قدمتها ديب سيك ستُسهم في جعل الإفصاحات المتعلقة بمخاطر الهلوسة أكثر سهولة، وشفافية، ووضوحًا، وسرعة في الوصول إليها”، مما يُعزز من ثقة المستخدمين ويُمكنهم من اتخاذ قرارات مستنيرة عند التفاعل مع نماذج الذكاء الاصطناعي.