كشفت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي عن منهجية مبتكرة لتحسين قدرات الاستدلال لدى النماذج اللغوية الكبيرة، في خطوة تسبق إطلاق الجيل التالي من منتجاتها الذكية.
بالتعاون مع باحثين من جامعة تسينغهوا المرموقة، قدمت الشركة تقنيتين رائدتين: "نمذجة المكافآت التوليدية" (GRM) و"ضبط التقييم الذاتي المرتكز إلى المبادئ"، وذلك عبر ورقة بحثية نشرت على منصة arXiv العلمية.
تقنية GRM تعمل كنظام تحفيز ذكي، حيث يتعلم النموذج تقديم إجابات أكثر دقة من خلال آلية تشبه الألعاب، يحصل فيها على نقاط عند الإجابات الجيدة ويخسر عند الأخطاء. هذا النظام يقلل الاعتماد على التقييم البشري المباشر، مما يسرع عملية التدريب ويحسن الجودة.
النتائج الأولية أظهرت تفوق نماذج DeepSeek-GRM على المنهجيات التقليدية، حيث حققت أداءً تنافسياً أمام أقوى النماذج الحالية. وأعلنت الشركة عن نيتها لإتاحة هذه التقنيات مفتوحة المصدر، دون الكشف عن جدول زمني محدد.
هذا التطور يأتي وسط توقعات بإطلاق نموذج DeepSeek-R2 قريباً، بعد النجاح الكبير الذي حققه سابقه R1 الذي تميز بأداء عالٍ بتكلفة منخفضة. ورغم أن تقارير إعلامية ذكرت إمكانية طرح R2 في أبريل الجاري، إلا أن الشركة حافظت على صمتها تجاه هذه التكهنات.
يذكر أن DeepSeek أجرت مؤخراً تحديثاً رئيسياً لنموذجها V3، ركز على تعزيز القدرات الاستدلالية وتحسين تجربة المستخدم، خاصة في الواجهات الأمامية والكتابة باللغة الصينية. كما أظهرت الشركة التزاماً بالشفافية من خلال فتح خمسة من مستودعاتها البرمجية للمطورين العالميين.
إرسال تعليق