
بلومبرغ
طورت مجموعة "آنت غروب" (Ant Group)، المدعومة من المليادير جاك ما، تقنيات لتدريب نماذج الذكاء الاصطناعي باستخدام أشباه موصلات صينية الصنع، ما من شأنه أن يخفض التكاليف 20%، وفق أشخاص مطلعين على الأمر.
استخدمت "آنت" رقائق محلية، من بينها رقائق من مجموعة "علي بابا" القابضة التابعة لها، ومن شركة "هواوي تكنولوجيز"، لتدريب نماذجها وفق نهج "مزيج الخبراء" في تعلم الآلة، بحسب الأشخاص. وقالوا إن النتائج التي حققتها كانت مشابهةً لتلك التي توفرها رقائق شركة "إنفيديا" مثل "إتش 800"، مطالبين بعدم الكشف عن هوياتهم نظراً لأن المعلومات غير علنية.
ما تزال "آنت"، ومقرها هانغتشو، تستخدم رقائق "إنفيديا" في تطوير الذكاء الاصطناعي، لكنها أصبحت تعتمد بشكل متزايد على بدائل أخرى، من بينها رقائق شركة "أدفانسد مايكرو ديفايسز" والرقائق الصينية في أحدث نماذجها، وفقاً لأحد الأشخاص.
سباق الذكاء الاصطناعي
تمثل هذه النماذج دخول "آنت" في سباق متسارع بين الشركات الصينية والأميركية، لا سيما بعد أن أظهرت شركة "ديب سيك" (DeepSeek) مدى كفاءة تدريب النماذج بتكاليف أقل بكثير من المليارات التي استثمرتها "أوبن إيه آي" و"ألفابت" المالكة لشركة "جوجل". كما يؤكد هذا التطور جهود الشركات الصينية لإيجاد بدائل محلية لأشباه الموصلات المتقدمة من "إنفيديا". رغم أن "إتش 800" ليست الأكثر تقدماً، إلا أنها تُعد شريحة قوية نسبياً، وهي حالياً محظورة من التصدير إلى الصين بموجب قيود أميركية.
نشرت "آنت" ورقة بحثية الشهر الجاري، زعمت فيها أن نماذجها تفوقت في بعض الأحيان على نماذج "ميتا بلاتفورمز" في اختبارات معيارية معينة، وهو ما لم تتمكن "بلومبرغ نيوز" من التحقق منه بشكل مستقل. لكن إذا صحت هذه الادعاءات، فقد تُمثل تقنيات "آنت" خطوةً إضافيةً في تطور الذكاء الاصطناعي في الصين، عبر خفض تكاليف الاستدلال ودعم خدمات الذكاء الاصطناعي.
مع استمرار تدفق الاستثمارات الضخمة إلى الذكاء الاصطناعي، أصبحت نماذج مزيج الخبراء خياراً شائعاً، بعد أن اعتمدتها "جوجل" وشركة "ديب سيك" الناشئة التي مقرها هانغتشو، وغيرها من الشركات. يقسم هذا النهج المهام إلى مجموعات بيانات أصغر، تماماً كما لو كان هناك فريق من المتخصصين يركز كل منهم على جزء معين من المهمة، ما يجعل العملية أكثر كفاءة. امتنعت شركة "آنت" عن التعليق في بيان عبر البريد الإلكتروني.
رقائق "إنفيديا"
عادةً ما يعتمد تدريب نماذج مزيج الخبراء على رقائق عالية الأداء مثل وحدات معالجة الرسومات التي تبيعها "إنفيديا". لكن تكلفة هذه العملية كانت حتى الآن عائقاً أمام العديد من الشركات الصغيرة، ما حدّ من انتشار هذه النماذج على نطاق أوسع. لذلك، تعمل "آنت" على إيجاد طرق أكثر كفاءة لتدريب النماذج اللغوية الكبيرة والتغلب على هذا العائق. يتضح هذا التوجه من عنوان الورقة البحثية التي نشرتها الشركة، إذ حددت هدفها بوضوح: "توسيع نطاق النموذج دون الحاجة إلى وحدات معالجة رسومية عالية التكلفة".
يأتي هذا النهج على عكس استراتيجية "إنفيديا". أكد الرئيس التنفيذي للشركة، جنسن هوانغ، أن الطلب على الحوسبة سيواصل الارتفاع حتى مع ظهور نماذج أكثر كفاءة، مثل نموذج "آر1" من "ديب سيك". يرى هوانغ أن الشركات ستحتاج إلى رقائق أقوى لزيادة إيراداتها، وليس إلى رقائق أرخص لتقليل التكاليف. لهذا السبب، واصلت "إنفيديا" تطوير وحدات معالجة رسومية ضخمة، تتميز بعدد أكبر من أنوية المعالجة والترانزستورات، وسعة ذاكرة أعلى.
تسلط الورقة البحثية لـ"آنت" الضوء على تسارع وتيرة الابتكار والتقدم التكنولوجي في قطاع الذكاء الاصطناعي في الصين. إذا تأكدت ادعاءات الشركة، فإن ذلك يعكس اقتراب الصين من تحقيق الاكتفاء الذاتي في مجال الذكاء الاصطناعي، حيث تلجأ إلى نماذج منخفضة التكلفة وذات كفاءة حوسبية كبديل للرقائق الأميركية المتطورة المحظورة بموجب قيود التصدير
روبرت ليا، محلل "بلومبرغ إنتلجينس"
ذكرت "آنت" أن تكلفة تدريب نموذج يحتوي على تريليون رمز باستخدام معدات عالية الأداء بلغت حوالي 6.35 مليون يوان (880 ألف دولار)، لكنها تمكنت من خفض هذه التكلفة إلى 5.1 مليون يوان عبر استخدام أجهزة ذات مواصفات أقل. تجدر الإشارة إلى أن الرموز المشفرة هي الوحدات المعلوماتية التي يستوعبها النموذج أثناء التدريب لفهم العالم وتقديم استجابات دقيقة للمستخدمين.
تطبيقات الذكاء الاصطناعي
تخطط "آنت" للاستفادة من إنجازها الأخير في النماذج اللغوية الكبيرة، مثل "لينغ بلس" (Ling-Plus) و"لينغ لايت" (Ling-Lite)، في تطبيقات الذكاء الاصطناعي الصناعية، بما في ذلك قطاعي الرعاية الصحية والخدمات المالية، وفقاً للأشخاص.
كانت الشركة قد استحوذت هذا العام على منصة "هودف.كوم" (Haodf.com) الصينية لتعزيز خدمات الذكاء الاصطناعي في الرعاية الصحية. كما تملك تطبيق "تشيشياو باو" (Zhixiaobao) الذي يعمل كمُساعد شخصي قائم على الذكاء الاصطناعي، بالإضافة إلى خدمة استشارات مالية ذكية تُدعى "ماكشياو كاي" (Maxiaocai) .
أشارت "آنت" في ورقتها البحثية إلى أن نموذجها "لينغ لايت" حقق أداء أفضل في أحد المعايير الأساسية لفهم اللغة الإنجليزية مُقارنةً بأحد نماذج "لاما" الخاصة بـ"ميتا". كما تفوق نموذجا "لينغ لايت" و"لينغ بلس" على نماذج "ديب سيك" المكافئة في اختبارات اللغة الصينية.
قال روبن يو، الرئيس التقني لشركة "شينغشانغ تك" (Shengshang Tech) المتخصصة في حلول الذكاء الاصطناعي، ومقرها بكين: "إذا وجدت نقطة ضعف واحدة لهزيمة أفضل معلم كونغ فو في العالم، فيمكنك أن تقول إنك هزمته، ولهذا السبب فإن التطبيق العملي في العالم الحقيقي أمر بالغ الأهمية".
النماذج اللغوية الكبيرة
قامت "آنت" بجعل نماذج "لينغ" مفتوحة المصدر، حيث يحتوي نموذج "لينغ لايت" على 16.8 مليار من المعطيات والتي تمثل الإعدادات القابلة للتعديل التي تعمل مثل الأزرار والمقابض التي توجه أداء النموذج. أما نموذج "لينغ بلس"، فيضم 290 مليار من المعطيات، ما يجعله من النماذج كبيرة الحجم في مجال النماذج اللغوية. للمقارنة، يقدّر الخبراء، بحسب تقرير شركة "إم آي تي تكنولوجي ريفيو" (MIT Technology Review)، أن نموذج "تشات جي بي تي-4.5" التابع لتطبيق "تشات جي بي تي" يحتوي على 1.8 تريليون من المعطيات، في حين أن نموذج "آر1" التابع لـ"ديب سيك" يضم 671 مليار من المعطيات.
واجهت "آنت" تحديات في بعض جوانب تدريب النماذج، لا سيما في مسألة الاستقرار. أشارت في ورقتها البحثية إلى أن أي تغييرات بسيطة في الأجهزة أو في بنية النموذج قد تؤدي إلى مشكلات، من بينها قفزات في معدل الخطأ للنماذج.