تتجه شركات الذكاء الاصطناعي الكبرى، بما في ذلك OpenAI ومايكروسوفت وMeta، إلى عملية تُعرف باسم “التقطير” في السباق العالمي لتطوير نماذج ذكاء اصطناعي أقل تكلفة للمستهلكين والشركات، وفق صحيفة “فاينانشيال تايمز”.
وذكرت الصحيفة البريطانية، الأحد، أن تقنية التقطير لفتت الأنظار على نطاق واسع بعد أن استخدمتها شركة DeepSeek الصينية لتطوير نماذج ذكاء اصطناعي قوية وفعالة، مستندة إلى أنظمة مفتوحة المصدر طرحتها شركتا Meta وAlibaba المنافسة.
وأضافت أن هذا الإنجاز “هز الثقة” في ريادة وادي السيليكون في مجال الذكاء الاصطناعي، ما دفع مستثمري وول ستريت إلى سحب استثمارات بمليارات الدولارات في أسهم شركات التكنولوجيا الكبرى في الولايات المتحدة.
ومن خلال تقنية “التقطير”، تعتمد الشركات على نموذج لغوي ضخم يُعرف باسم “المُعلم”، الذي يقوم بتوليد الكلمة المحتملة التالية في الجملة.
ويقوم نموذج “المُعلم” بتوليد بيانات تُستخدم في تدريب نموذج أصغر يُعرف بـ”الطالب”، ما يساعد على نقل المعرفة والتنبؤات بسرعة من النموذج الأكبر إلى النموذج الأصغر، بحسب “فاينانشيال تايمز”.
و”التقطير” هو ممارسة شائعة في مجال التعلّم الآلي، إذ يستخدم مطوّرو البرمجيات هذه التقنية للحصول على أداء أفضل على نماذج أصغر باستخدام مخرجات من نماذج أكبر وأكثر كفاءة، ما يسمح لهم بتحقيق نتائج مماثلة في مهام محددة بتكلفة أقل بكثير.
ورغم استخدام تقنية التقطير على نطاق واسع لسنوات، فإن التطورات الأخيرة دفعت خبراء القطاع إلى الاعتقاد بأن هذه العملية ستصبح على نحو متزايد “ميزة” للشركات الناشئة التي تبحث عن طرق فعالة منخفضة التكلفة لتطوير تطبيقات تعتمد على هذه التقنية.
“تقنية ساحرة”
ونقلت “فاينانشيال تايمز” عن أوليفييه جودمينت، رئيس قسم المنتجات في شركة OpenAI، قوله: “التقطير ساحر للغاية، فهو يعتمد أساساً على أخذ نموذج ذكي وضخم متطور واستخدامه لتعليم نموذج أصغر… يتمتع بقدرات عالية في مهام محددة، وهو شديد الكفاءة من حيث التكلفة وسريع التنفيذ للغاية”.
وتتطلب النماذج اللغوية الضخمة، مثل GPT-4 الذي طورته OpenAI، وGemini الذي طورته جوجل، وLlama الذي أنتجته Meta، كميات هائلة من البيانات وقدرات حوسبية كبيرة لتطويرها وصيانتها.
ولم تكشف الشركات عن الأرقام الدقيقة لتكلفة تدريب النماذج الضخمة، لكن يُرجح أن تصل إلى مئات ملايين الدولارات.
وبفضل تقنية التقطير، يمكن للمطورين والشركات الاستفادة من إمكانات هذه النماذج بتكلفة أقل بكثير، مما يتيح لمطوري التطبيقات تشغيل نماذج الذكاء الاصطناعي بسرعة على أجهزة مثل الحواسيب المحمولة والهواتف الذكية.
ويمكن للمطورين استخدام منصة OpenAI لتطبيق “تقنية التقطير”، والتعلم من نماذج اللغة الضخمة التي تشكل أساس منتجات مثل ChatGPT.
واستخدمت مايكروسوفت، أكبر داعم لـOpenAI، نموذج GPT-4 لتقطير عائلة نماذج اللغة الصغيرة الخاصة بها Phi، وذلك كجزء من شراكة تجارية بعد استثمار نحو 14 مليار دولار في الشركة.
ومع ذلك، قالت شركة OpenAI الناشئة، ومقرها سان فرانسيسكو، إنها تعتقد أن DeepSeek قامت بتقطير نماذجها لاستخدامها في تدريب نموذج منافس، وهو ما يعد انتهاكاً لشروط الخدمة. ولم تعلق DeepSeek على هذه الاتهامات.
وفي حين يمكن استخدام التقطير لإنشاء نماذج عالية الأداء، يرى خبراء أنها تقنية أكثر محدودية. وقال أحمد عوض الله، الباحث في مايكروسوفت، إن هناك “مقايضة” في استخدام التقطير، فكلما كان النموذج أصغر، تراجعت قدراته.
وأشار عوض الله إلى إمكانية تصميم نموذج مقطر ليكون فعالاً جداً في تلخيص رسائل البريد الإلكتروني، لكنه لن يكون جيداً في مهام أخرى.