أعلنت شركة ميتا يوم الثلاثاء عن نية تفعيل نموذج اللغة الكبير "لاما 2" Llama 2 الخاص بها على شرائح شركة كوالكوم المستخدمة في الهواتف الذكية والحواسيب الشخصية، وذلك اعتباراً من عام 2024.
تعتمد الصناعة في الوقت الحالي على مراكز البيانات التي تضم أعدادًا كبيرة من الخوادم القوية ووحدات معالجة الرسومات GPU التابعة لشركة إنفيديا لتشغيل نماذج اللغة الكبيرة، نظرًا للاحتياجات الهائلة للطاقة والبيانات الحاسوبية.
على الرغم من ذلك، فإن شركات تصنيع الشرائح المتقدمة للأجهزة الذكية والحواسيب الشخصية، مثل كوالكوم، لم تستفد من تطورات الذكاء الاصطناعي بنفس القدر.
ويشير الإعلان الذي تم إصداره يوم الثلاثاء إلى رغبة شركة كوالكوم في تعزيز وجودها في صناعة الذكاء الاصطناعي، ولكن ضمن الأجهزة وليس في السحابة.
إذا تمكنت الهواتف الذكية من تشغيل نماذج اللغات الكبيرة بدلاً من مراكز البيانات، فقد يؤدي ذلك إلى خفض التكلفة العالية لتشغيل نماذج الذكاء الاصطناعي وتحسين الأداء والتطبيقات المساعدة الصوتية.
تخطط شركة كوالكوم لجعل نموذج اللغة الكبير "لاما 2" المفتوح المصدر، متاحًا على أجهزتها، وتأمل في توفير خدمات ذكية غير مسبوقة على هذه الأجهزة. يمكن لنموذج "لاما 2" من شركة ميتا القيام بالعديد من الأشياء التي يمكن لـ ChatGPT القيام بها، ولكن يمكن تجميعها في برنامج أصغر لتشغيلها على الأجهزة المحمولة.
تحتوي شرائح كوالكوم على وحدة معالجة تانسور Tensor Processor Unit المناسبة للحسابات المطلوبة لنماذج الذكاء الاصطناعي، ولكن القوة المتاحة في الأجهزة المحمولة ضئيلة مقارنةً بمراكز البيانات. يعتبر نموذج "لاما" مهمًا لشركة ميتا لأنها نشرت الشفرة المصدرية التي تساعد في التحكم في عمله، وهو مفتوح المصدر مما يمكن الباحثين والمؤسسات التجارية من استخدام نماذج الذكاء الاصطناعي في أجهزتهم دون طلب الإذن أو الدفع.
يتميز نموذج "لاما 2" بأنه مفتوح المصدر، في حين أن نماذج اللغة الكبيرة الأخرى مثل GPT-4 من OpenAI وBard من Google هي مغلقة المصدر. تعاونت كوالكوم مع ميتا في السابق، لا سيما على شرائح نظارات الواقع الافتراضي Quest الخاصة بها، وجربت أيضًا بعض نماذج الذكاء الاصطناعي التي تعمل ببطء على شرائحها.
يأتي إعلان ميتا وكوالكوم في وقت متزامن مع إعلان مماثل من ميتا ومايكروسوفت، حيث تم دمج نموذج "لاما 2" في خدمة الحوسبة السحابية Azure التابعة لمايكروسوفت.
إرسال تعليق