الصين تتفوق: نموذج DeepSeek-V3 يتحدى GPT-4.5 بكفاءة مذهلة

 

الصين تتفوق: نموذج DeepSeek-V3 يتحدى GPT-4.5 بكفاءة مذهلة


في تحول نوعي يلوح في الأفق لعالم الذكاء الاصطناعي، استطاعت شركة "ديب سيك" الصينية أن تخطف الأضواء بنموذجها اللغوي الكبير الجديد، DeepSeek-V3، الذي أظهر تفوقًا ملحوظًا على بعض النماذج المنافسة المطورة من قبل "OpenAI"، بما في ذلك الإصدار المتقدم GPT-4.5.


المثير للدهشة في هذا الإنجاز الصيني هو تحقيقه باستخدام قوة حوسبة متواضعة نسبيًا، حيث اعتمد النموذج على 2048 وحدة معالجة رسومية فقط، وهو ما يمثل جزءًا يسيرًا من الموارد الهائلة التي تستخدمها كبرى شركات الذكاء الاصطناعي في تدريب نماذجها.


وقد سلطت الورقة البحثية الأخيرة التي نشرتها "ديب سيك" تحت عنوان "رؤى حول DeepSeek-V3" الضوء على الكيفية التي يمكن بها للتكامل الذكي بين تصميم العتاد والبرمجيات أن يتجاوز القيود التي كانت تعتبر سائدة في مجال الذكاء الاصطناعي.


تصميم مبتكر وكفاءة غير مسبوقة:


يستند نموذج V3 إلى بنية "مزيج الخبراء" (MoE) المتطورة، حيث يتم تنشيط 37 مليار معلمة فقط من إجمالي 671 مليار معلمة خلال كل عملية توليد للنص أو التنبؤ، مما يؤدي إلى خفض كبير في استهلاك الطاقة والموارد الحاسوبية. هذه البنية تجعل النموذج أكثر كفاءة بشكل ملحوظ مقارنة بنماذج ضخمة أخرى مثل GPT-3.5 أو حتى GPT-4.


ويكمن جوهر الابتكار في V3 في تبنيه تقنيات متقدمة مثل آلية الانتباه الكامن متعدد الرؤوس (MLA)، والتدريب فائق الكفاءة باستخدام دقة FP8، والتنبؤ التخميني المتعدد، والتي تعمل جميعها بتناغم لتقليل استخدام الذاكرة وتكاليف التشغيل إلى مستويات غير مسبوقة.


تكلفة تشغيل زهيدة:


وفقًا للورقة البحثية، تم تدريب نموذج DeepSeek-V3 باستخدام 2048 وحدة معالجة رسومية من طراز NVIDIA H800، وبلغت التكلفة الإجمالية للتدريب حوالي 5.576 مليون دولار فقط.


ولوضع هذا الرقم في سياقه الصحيح، تشير التقديرات إلى أن تكلفة تدريب نماذج مماثلة لدى الشركات المنافسة غالبًا ما تتجاوز مئات الملايين من الدولارات، مما يبرز الكفاءة الاقتصادية الهائلة لنهج "ديب سيك".


وعلى صعيد الاستدلال (الاستخدام الفعلي للنموذج بعد التدريب)، تبلغ تكلفة معالجة مليون رمز باستخدام DeepSeek-V3 حوالي 2.19 دولار فقط، مقارنة بـ 60 دولارًا أو أكثر في بعض الخدمات الأخرى المتاحة، مما يخلق فجوة اقتصادية كبيرة في تطبيقات الذكاء الاصطناعي.


تداعيات استراتيجية واسعة:


لم تمر الكفاءة الاستثنائية لنموذج V3 من "ديب سيك" مرور الكرام في أسواق التكنولوجيا، حيث يُعتقد أنها ساهمت في انخفاض سهم شركة "إنفيديا" بنسبة ملحوظة بلغت 18% في وقت سابق من هذا العام، وذلك مع تزايد الاهتمام بالنماذج الذكية التي تقدم أداءً قويًا مع استهلاك أقل للطاقة.


وقد لفت النموذج الصيني انتباه العديد من الشركات والمؤسسات الكبرى التي تبحث عن حلول ذكاء اصطناعي يمكن تشغيلها محليًا أو على أجهزة ذات قدرات متوسطة، وهو ما يتيحه التصميم الكفء لـ DeepSeek-V3.


وبنهج مغاير للنماذج التجارية المغلقة، أتاحت "ديب سيك" نموذجها عبر منصات مفتوحة المصدر مثل "Hugging Face" و"OpenRouter"، وقد حصد المشروع بالفعل أكثر من 15 ألف نجمة تقييم على منصة "GitHub"، بالإضافة إلى آلاف النسخ المعدلة والمشتقة، مما يعكس انتشاره الواسع في أوساط المطورين والباحثين في آسيا وأوروبا وأمريكا الشمالية.


قفزة نوعية في الأداء:


لم تتوقف "ديب سيك" عند هذا الحد، بل أطلقت في شهر مارس الماضي تحديثًا لنموذجها تحت اسم DeepSeek-V3-0324، ليصل عدد معلمات النموذج إلى 685 مليارًا، مع تحقيق تحسينات ملحوظة في نتائج الاختبارات المعيارية مثل MMLU-Pro وAIME، بالإضافة إلى تقديم أداء أقوى في فهم اللغة الصينية وتوليد واجهات المستخدم الأمامية.


الذكاء الاصطناعي يدخل حقبة جديدة:


في ضوء هذه التطورات المتسارعة، يبدو أن المنافسة في مجال الذكاء الاصطناعي لم تعد ترتكز بشكل أساسي على حجم النموذج من حيث عدد المعلمات أو عدد وحدات المعالجة المستخدمة، بل أصبحت الأولوية لمن يستطيع تسخير الموارد المتاحة بكفاءة غير مسبوقة وتحقيق أفضل النتائج بأقل التكاليف.


يقدم نموذج DeepSeek-V3 مثالًا عمليًا لمستقبل الذكاء الاصطناعي، حيث يبرز بكونه ذكيًا، قابلاً للتوسع، والأهم من ذلك، منخفض التكلفة، مما قد يفتح الباب أمام تطبيقات واستخدامات جديدة لم تكن ممكنة في السابق.


 تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية

ليست هناك تعليقات:

إرسال تعليق