فريق OpenAI المكلف بحماية الإنسانية لم يعد موجودًا

القاهرة 24 0 تعليق ارسل طباعة تبليغ حذف

في صيف عام 2023، أنشأت OpenAI فريق "Superalignment" الذي كان هدفه هو التوجيه والتحكم في أنظمة الذكاء الاصطناعي المستقبلية التي يمكن أن تكون قوية جدًا بحيث يمكن أن تؤدي إلى انقراض الإنسان. وبعد أقل من عام، مات هذا الفريق.

وأخبرت OpenAI بلومبرج أن الشركة كانت "تدمج المجموعة بشكل أكثر عمقًا في جهودها البحثية لمساعدة الشركة على تحقيق أهداف السلامة الخاصة بها". لكن سلسلة من التغريدات من جان لايكي، أحد قادة الفريق الذي استقال مؤخرًا، كشفت عن توترات داخلية بين فريق السلامة والشركة الأكبر.

وفي بيان نُشر على موقع X يوم الجمعة، قال Leike إن فريق Superalignment كان يكافح من أجل الحصول على الموارد اللازمة لإنجاز البحث. وكتب لايكي: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته". "تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها إلى المنتجات اللامعة. لم تستجب OpenAI على الفور لطلب التعليق من Engadget.
جاءت رحيل Leike في وقت سابق من هذا الأسبوع بعد ساعات من إعلان كبير العلماء في OpenAI Sutskevar أنه سيترك الشركة. لم يكن Sutskevar واحدًا من رواد فريق Superalignment فحسب، بل ساعد أيضًا في تأسيس الشركة. جاءت خطوة سوتسكيفار بعد ستة أشهر من مشاركته في قرار إقالة الرئيس التنفيذي سام ألتمان بسبب مخاوف من أن ألتمان لم يكن "صريحًا باستمرار" مع مجلس الإدارة. أثارت إقالة ألتمان القصيرة للغاية ثورة داخلية داخل الشركة حيث وقع ما يقرب من 800 موظف على خطاب هددوا فيه بالاستقالة إذا لم تتم إعادة ألتمان إلى منصبه. وبعد خمسة أيام، عاد ألتمان إلى منصب الرئيس التنفيذي لشركة OpenAI بعد أن وقع سوتسكيفار على خطاب يفيد بأنه نادم على أفعاله.

عندما أعلنت عن إنشاء فريق Superalignment، قالت OpenAI إنها ستخصص 20 بالمائة من طاقة الكمبيوتر الخاصة بها على مدى السنوات الأربع المقبلة لحل مشكلة التحكم في أنظمة الذكاء الاصطناعي القوية في المستقبل. كتبت الشركة في ذلك الوقت: "[الحصول على] هذا الحق أمر بالغ الأهمية لتحقيق مهمتنا". في X، كتب Leike أن فريق Superalignment كان "يكافح من أجل الحوسبة وكان الأمر يزداد صعوبة أكثر فأكثر" لإجراء أبحاث مهمة حول سلامة الذكاء الاصطناعي. كتب: "على مدى الأشهر القليلة الماضية، كان فريقي يبحر عكس الريح"، وأضاف أنه وصل إلى "نقطة الانهيار" مع قيادة OpenAI بسبب الخلافات حول الأولويات الأساسية للشركة.


على مدى الأشهر القليلة الماضية، كان هناك المزيد من حالات المغادرة من فريق Superalignment. وفي إبريل، أفادت التقارير أن شركة OpenAI فصلت اثنين من الباحثين، هما ليوبولد أشنبرينر وبافيل إسماعيلوف، بدعوى تسريب معلومات.

صرحت شركة OpenAI لبلومبرج أن جهود السلامة المستقبلية الخاصة بها سيقودها جون شولمان، وهو مؤسس مشارك آخر، والذي تركز أبحاثه على نماذج اللغات الكبيرة. جاكوب باتشوكي، المدير الذي قاد تطوير GPT-4 - أحد نماذج اللغات الكبيرة الرائدة في OpenAI - سيحل محل سوتسكيفار كرئيس للعلماء.

لم يكن Superalignment هو الفريق الوحيد في OpenAI الذي يركز على سلامة الذكاء الاصطناعي. وفي أكتوبر، أنشأت الشركة فريقًا جديدًا "للاستعداد" للقضاء على "المخاطر الكارثية" المحتملة من أنظمة الذكاء الاصطناعي بما في ذلك قضايا الأمن السيبراني والتهديدات الكيميائية والنووية والبيولوجية.

تحديث، 17 مايو 2024، الساعة 3:28 مساءً بالتوقيت الشرقي: ردًا على طلب للتعليق على مزاعم Leike، قام أحد موظفي العلاقات العامة في OpenAI بتوجيه Engadget إلى تغريدة Sam Altman قائلًا إنه سيقول شيئًا ما في اليومين المقبلين.

إخترنا لك

أخبار ذات صلة

0 تعليق