«تحول مرتقب: نهاية لأزمة الذاكرة التي تعيق الذكاء الاصطناعي.» DeepSeek قد تكسر قيود ذاكرة الذكاء الاصطناعي بتقنية رائدة تُبشّر بمستقبل واعد

«تحول مرتقب: نهاية لأزمة الذاكرة التي تعيق الذكاء الاصطناعي.» DeepSeek قد تكسر قيود ذاكرة الذكاء الاصطناعي بتقنية رائدة تُبشّر بمستقبل واعد

في خطوة واعدة قد تعيد تشكيل مشهد الذكاء الاصطناعي، أعلنت شركة ديب سيك بالتعاون مع جامعة بكين عن ابتكار طريقة تدريب ثورية تُعرف باسم Engram، تستهدف هذه التقنية الرائدة تخفيف الاعتماد الكبير على ذاكرة النطاق العريض عالية السرعة (HBM)، والتي لطالما كانت المحرك الرئيسي وراء الارتفاعات الصارخة في أسعار شرائح DRAM، حيث شهدت ارتفاعاً غير مسبوق في الآونة الأخيرة.

المنتج/القياسالتغيرالفترة الزمنية
أسعار شرائح DRAMارتفاع 5 أضعافخلال 10 أسابيع فقط

Engram: حل جذري لأزمة الذاكرة في الذكاء الاصطناعي

تعتمد النماذج اللغوية الكبيرة (LLMs) بشكل تقليدي على ذاكرة HBM ليس فقط لإجراء العمليات الحسابية المعقدة، بل وأيضاً لاسترجاع المعرفة الأساسية، الأمر الذي يخلق اختناقاً مزدوجاً يؤثر سلباً على الأداء ويزيد من التكلفة، ومع الارتفاع الهائل في الطلب على مكونات الذكاء الاصطناعي، بات هذا الاختناق يشكل تحدياً محورياً للصناعة، كما أشار تقرير صادر عن موقع “techradar” واطلعت عليه “العربية Business”، لكن تقنية Engram تقدم حلاً مبتكراً لهذه المعضلة، حيث تفصل تخزين المعرفة عن عمليات الحوسبة، مما يتيح للنموذج استرجاع المعلومات الضرورية بكفاءة دون استنزاف ذاكرة GPU فائقة السرعة.

آلية عمل Engram: كفاءة غير مسبوقة

أفاد الباحثون أن النماذج الحالية تهدر جزءاً كبيراً من قدرتها التسلسلية على عمليات بسيطة، كان بالإمكان استغلالها في مهام تفكير أكثر تعقيداً، وتعتمد Engram على استرجاع المعرفة باستخدام N-grams مشفرة (Hashed N-grams)، مما يضمن وصولاً ثابتاً للمعلومات بغض النظر عن السياق الحالي للنموذج، بعد ذلك، يتم تعديل البيانات المسترجعة عبر آلية بوابة ذكية حساسة للسياق، لضمان توافقها التام مع الحالة الداخلية للنموذج، وهذا يتيح معالجة السياقات الطويلة بكفاءة أعلى ويدعم آليات الجلب المسبق على مستوى النظام، وكل ذلك دون أي عبء حسابي إضافي يُذكر.

نتائج اختبارات مبشرة لـ Engram

أُجريت اختبارات مكثفة على تقنية Engram باستخدام نموذج ضخم يضم 27 مليار معامل، وأظهرت التقنية تحسناً ملحوظاً في العديد من المؤشرات القياسية الصناعية، وذلك دون أي زيادة في عدد العمليات الحسابية (FLOPs) أو في حجم النموذج الكلي، علاوة على ذلك، برهنت الاختبارات أن تخصيص حوالي 20–25% من ميزانية المعاملات لوحدة Engram يحقق أداءً فائقاً مقارنة بنماذج Mixture-of-Experts (MoE) التقليدية، مع الحفاظ على استقرار هذه المكاسب عبر أحجام النماذج المختلفة.

Engram: تخفيف الضغط على HBM وخفض التكاليف

تُعد الميزة الأبرز لتقنية Engram هي قدرتها على تقليل الحاجة إلى الذاكرة فائقة السرعة، وذلك من خلال استخدام آليات بحث ثابتة للمعلومات غير المتغيرة، مما يعزز كفاءة استهلاك الذاكرة بشكل كبير، وتتكامل هذه التقنية بسلاسة مع حلول أخرى منخفضة التكلفة، مثل مسرعات الاستدلال التي تقدمها شركة Phison، والتي تسمح بتوسيع الذاكرة الإجمالية باستخدام أقراص الحالة الصلبة (SSD) بدلاً من الاعتماد الكلي على HBM، كما أن Engram متوافقة تماماً مع معايير CXL (Compute Express Link) الناشئة، والتي صُممت بالأساس للتغلب على اختناقات ذاكرة GPU في أعباء العمل الضخمة، مما يفتح آفاقاً واسعة لخفض التكاليف وتحسين الأداء.

تأثيرات جيوسياسية وأبعاد عالمية محتملة

يحمل هذا الابتكار في طياته أثراً جيوسياسياً هاماً، خاصة في الصين، حيث لا يزال توافر ذاكرة HBM المتقدمة يواجه تحديات مقارنة بكبار المصنعين العالميين مثل “سامسونغ” و”SK Hynix” و”ميكرون”، وبالتالي، فإن تقليل الاعتماد على هذا النوع من الذاكرة قد يوفر لشركات الذكاء الاصطناعي الصينية ميزة تنافسية أكبر وفرصاً أوسع للنمو في السوق العالمية.

Engram: هل تنهي أزمة الذاكرة العالمية؟

تُشير النتائج الأولية إلى أن Engram تمهد الطريق لتوسيع قدرات النماذج وزيادة عمق التفكير دون تضخم هائل في متطلبات الذاكرة، وهو ما قد يخفف الضغط على سلاسل التوريد العالمية، ويساهم في استقرار أسعار شرائح DRAM وDDR5 مستقبلاً، وبينما لا تزال هذه التقنية في مراحلها المبكرة، فإنها تمثل بلا شك خطوة محورية نحو كسر الحلقة المفرغة بين تطور الذكاء الاصطناعي وارتفاع تكاليف العتاد، وقد تكون بالفعل بداية النهاية لما يُعرف اليوم بـ “أزمة الذاكرة العالمية”.