أخبار
DeepSeek تُطلق نموذجَي V4 Pro وFlash مفتوحي المصدر بسياق مليون رمز— DeepSeek OpenAI تُطلق GPT-5.5 بقدرات برمجة وأبحاث عميلة— OpenAI Google تكشف منصة Gemini Enterprise وشرائح TPU v8— Google Elon Musk يعلن مشروع Terafab للرقائق وصفقة Cursor— SpaceX Anthropic تحقق في تسريب Mythos وتصدر Claude Opus 4.7— Anthropic Microsoft تستثمر 180 مليار دولار بأستراليا للذكاء الاصطناعي— Microsoft xAI تطلق Grok Voice Think Fast 1.0 الأذكى صوتياً— xAI MiMo-V2.5-Pro: شاومي تُطلق نموذجها الأقوى لمهام الوكيل الطويلة بكفاءة رموز تفوق Opus 4.6— Xiaomi OpenAI تطلق ChatGPT Images 2.0 بنمط تفكير متقدم— OpenAI xAI تطلق واجهات API صوتية جديدة لـ Grok بتكلفة أقل 10 مرات— xAI Cerebras تقدم طلب إدراج رسمي في البورصة— Cerebras Anthropic تطلق أداة Claude Design لإنشاء التصاميم والصور— Anthropic Google تجري محادثات متقدمة مع Marvell لبناء رقائق استدلال AI— Google OpenAI تحسن Agents SDK بميزات sandbox للأمان— OpenAI Anthropic تناقش نموذج Mythos مع إدارة ترامب والوكالات الأمريكية— Anthropic DeepSeek تُطلق نموذجَي V4 Pro وFlash مفتوحي المصدر بسياق مليون رمز— DeepSeek OpenAI تُطلق GPT-5.5 بقدرات برمجة وأبحاث عميلة— OpenAI Google تكشف منصة Gemini Enterprise وشرائح TPU v8— Google Elon Musk يعلن مشروع Terafab للرقائق وصفقة Cursor— SpaceX Anthropic تحقق في تسريب Mythos وتصدر Claude Opus 4.7— Anthropic Microsoft تستثمر 180 مليار دولار بأستراليا للذكاء الاصطناعي— Microsoft xAI تطلق Grok Voice Think Fast 1.0 الأذكى صوتياً— xAI MiMo-V2.5-Pro: شاومي تُطلق نموذجها الأقوى لمهام الوكيل الطويلة بكفاءة رموز تفوق Opus 4.6— Xiaomi OpenAI تطلق ChatGPT Images 2.0 بنمط تفكير متقدم— OpenAI xAI تطلق واجهات API صوتية جديدة لـ Grok بتكلفة أقل 10 مرات— xAI Cerebras تقدم طلب إدراج رسمي في البورصة— Cerebras Anthropic تطلق أداة Claude Design لإنشاء التصاميم والصور— Anthropic Google تجري محادثات متقدمة مع Marvell لبناء رقائق استدلال AI— Google OpenAI تحسن Agents SDK بميزات sandbox للأمان— OpenAI Anthropic تناقش نموذج Mythos مع إدارة ترامب والوكالات الأمريكية— Anthropic
نماذج ٢٤ أبريل ٢٠٢٦ 7 دقائق قراءة

DeepSeek-V4 Pro و Flash: أقوى نموذج مفتوح المصدر يتحدى GPT-5.4 و Claude

إطلاق DeepSeek-V4 Pro بـ 1.6 تريليون معامل و Flash بـ 284 مليار — تفاصيل الأداء الثوري والمعايير المرجعية مقارنة بأقوى النماذج المغلقة في 2026

ف

فريق AI DayaHimour

٢٤ أبريل ٢٠٢٦

DeepSeek-V4 Pro و Flash: أقوى نموذج مفتوح المصدر يتحدى GPT-5.4 و Claude

في الرابع والعشرين من أبريل 2026، أطلقت DeepSeek سلسلة V4 التي طال انتظارها، ولم تكتفِ بإصدار نموذج واحد بل نموذجين متكاملين: DeepSeek-V4-Pro العملاق الذي ينافس أقوى النماذج المغلقة، وDeepSeek-V4-Flash الذي يثبت أن الكفاءة والسرعة لا تتعارضان مع الأداء العالي. الإصداران متاحان بمعمارية مفتوحة المصدر على Hugging Face، ويدعمان نافذة سياق تصل إلى مليون رمز.

ما قلب الموازين هذه المرة ليس ضخامة النموذج — رغم أن Pro يضم 1.6 تريليون معامل — بل الهندسة المعمارية الجديدة كلياً التي أعادت تصور كيفية تعامل النموذج مع النصوص الطويلة. النتيجة المباشرة: استهلاك حسابي لا يتجاوز 27% مما كان يستهلكه الإصدار السابق V3.2 عند معالجة مليون رمز، وانكماش ذاكرة التخزين المؤقتة إلى عُشر حجمها السابق.

آلية الانتباه التي غيرت قواعد اللعبة

لفهم ما أنجزته DeepSeek، يحتاج المرء إلى إدراك المشكلة الأساسية التي تعاني منها كل النماذج اللغوية الكبيرة: كلما زاد طول النص الذي تعالجه، تضاعف الجهد الحسابي المطلوب بشكل مرهق. تخيّل أن تحاول متابعة حوار في غرفة مزدحمة — بعد دقائق قليلة يصبح تتبع كل كلمة قيلت مستحيلاً دون استراتيجية ذكية للتركيز.

هنا يأتي الابتكار المزدوج في سلسلة V4. الأول هو توزيع طبقات النموذج بين نمطين متناوبين من آليات الانتباه: نمط “مضغوط متفرق” يختصر مجموعات صغيرة من الكلمات المتتالية في نقطة تركيز واحدة ثم ينتقي أهمها فقط للمعالجة الفعلية، ونمط “مضغوط ثقيل” يتعامل مع كتل نصية أضخم بكثير ويحتفظ بكثافة تركيز عالية عليها بعد اختصارها. كلا النمطين يُبقيان نافذة انزلاقية محلية تلتقط العلاقات الدقيقة بين الكلمات المتجاورة — تلك الفروق النحوية والأسلوبية التي لا تستطيع آليات الاختصار وحدها الإمساك بها.

الابتكار الثاني لا يقل أهمية عن الأول: استبدال آليات الربط التقليدية بين طبقات النموذج بما تسميه DeepSeek “الاتصالات الفائقة المقيدة بالمتشعب”. خلف هذا الاسم التقني المعقد فكرة بسيطة نسبياً — ضمان عدم تضخم الإشارات أو تلاشيها أثناء مرورها عبر طبقات النموذج العميقة، مما يتيح تدريب نماذج أعمق وأكثر استقراراً. ويكتمل المشهد مع محسّن Muon الذي حل محل آدم التقليدي في معظم معاملات النموذج، مقدماً تحديثات أكثر تماسكاً رياضياً تُسرّع التقارب أثناء التدريب.

مواصفات تقنية تعكس فلسفة مختلفة

يضم DeepSeek-V4-Pro في بنيته 384 خبيراً موجهاً وخبيراً مشتركاً واحداً في كل طبقة من طبقاته البالغ عددها 61، مع تفعيل ستة خبراء فقط لكل كلمة تُعالج — وهي استراتيجية ذكية تجمع بين ثراء النموذج الكبير وكفاءة النموذج الصغير في آنٍ واحد. البعد المخفي يبلغ 7168، وتُستخدم دقة FP4 المصممة خصيصاً للكمّ الواعي في أوزان الخبراء ومسارات الانتباه المحددة.

أما DeepSeek-V4-Flash فيخفض عدد الطبقات إلى 43 والبعد المخفي إلى 4096 والخبراء الموجهين إلى 256، مع الاحتفاظ بنفس معدلات الضغط ونفس نافذة الانتباه المنزلقة البالغة 128 كلمة. تشترك النسختان في ميزة التنبؤ بعدة كلمات دفعة واحدة بعمق واحد، وهي تقنية ورثتها السلسلة من الإصدار الثالث.

التدريب اللاحق للنموذجين اعتمد خط أنابيب من مرحلتين يستحق التوقف عنده: تدريب متخصصين مستقلين لكل مجال — الرياضيات والبرمجة والوكلاء واتباع التعليمات — عبر ضبط دقيق وتعزيز، ثم دمج هذه التخصصات في نموذج موحد من خلال التقطير على السياسة باستخدام أكثر من عشرة نماذج معلمة.

الأداء في المعايير المرجعية

وضع التفكير الأقصى DeepSeek-V4-Pro-Max يكشف عن موقع تنافسي غير مسبوق لنموذج مفتوح المصدر:

المعايير المرجعية — DeepSeek-V4-Pro-Max — أبريل 2026

GPQA Diamond 90.1%
MMLU-Pro 87.5%
HLE (Humanity's Last Exam) 37.7%
LiveCodeBench 93.5%
SWE-Bench Verified 80.6%
رياضيات / معرفة عامة / استنتاج
علوم
برمجة

في معيار GPQA Diamond المخصص لاختبار الاستنتاج العلمي على مستوى الدكتوراه، سجل النموذج 90.1% — متجاوزاً Claude Opus 4.6 Max بهامش ضئيل لكن حقيقي، وإن بقي خلف Gemini-3.1-Pro. النتيجة الأكثر إثارة للانتباه ظهرت في اختبار Codeforces الداخلي حيث حقق تقييم Elo بلغ 3206 نقطة، واضعاً نفسه في المرتبة 23 بين المتنافسين البشريين. إنها المرة الأولى في تاريخ النماذج المفتوحة المصدر التي يتجاوز فيها نموذج أداء GPT-5.4 xHigh البالغ 3168 نقطة.

أما في LiveCodeBench المخصص للبرمجة التنافسية، فقد تصدر DeepSeek-V4-Pro-Max المشهد بنسبة 93.5% متفوقاً على كل من Gemini-3.1-Pro وK2.6-Thinking. وفي SWE-Bench Verified — المعيار الذي يقيس القدرة على حل مشكلات هندسة البرمجيات الحقيقية — حقق 80.6% معادلاً عملياً Claude Opus 4.6.

مستويات التفكير الثلاثة: لماذا يختلف الأداء بهذا الشكل؟

تقدم سلسلة V4 ثلاثة أوضاع للاستدلال تتحكم في عمق التفكير الممنوح للنموذج قبل إصدار الإجابة. وضع Non-think يُنتج ردوداً سريعة للمهام الروتينية. وضع Think High يُنشّط سلاسل تفكير ممتدة. أما وضع Think Max — وهو ما تعكسه بيانات الأداء المنشورة — فيمنح النموذج تعليمات خاصة تدفعه لتفكيك المشكلة جذرياً مع نافذة سياق تصل إلى 384 ألف رمز مخصصة لمرحلة التفكير وحدها.

الفجوة بين هذه الأوضاع تكشف حقيقة لافتة عن طبيعة النموذج. في معيار HLE — أحد أقسى الاختبارات التي وضعها خبراء عبر تخصصات علمية متعددة — يقفز الأداء من 7.7% في الوضع العادي إلى 34.5% في الوضع العالي ثم 37.7% في الوضع الأقصى. وفي معيار Apex Shortlist المخصص لمهام الاستدلال المتقدم، تكون القفزة أكثر دراماتيكية: من 9.2% إلى 85.5% ثم 90.2%. هذه الأرقام تعني ببساطة أن النموذج يخزن قدرات استدلالية عميقة لا تظهر إلا حين يُمنح وقتاً كافياً ومساحة ذاكرة عمل رحبة.

Flash: ليس مجرد نسخة مصغرة

DeepSeek-V4-Flash ليس نسخة مخففة من Pro، بل نموذج صُمم من الأساس لسؤال مختلف تماماً: ما أفضل أداء يمكن تحقيقه بـ 13 مليار معامل مفعّلة فقط؟ الإجابة التي قدمتها DeepSeek فاجأت الكثيرين.

في اختبارات قاعدة التدريب، تجاوز Flash-Base نتائج الإصدار السابق V3.2-Base عبر أغلب المعايير، رغم أن الأخير كان يستخدم 37 مليار معامل مفعّلة. وفي مهام التفكير المتقدمة مع وضع Max، تتقارب نتائج Flash بشكل لافت مع شقيقه الأكبر: 85.7% مقابل 90.2% في Apex Shortlist، و3052 مقابل 3206 نقطة في Codeforces Rating — وهو أداء يتوافق مع مستوى GPT-5.2 وGemini-3.0-Pro.

يبقى الفارق واضحاً في المهام التي تعتمد على سعة المعرفة الموسوعية، حيث يسجل Flash 34.1% فقط في SimpleQA-Verified مقابل 57.9% لـ Pro — وهي نتيجة متوقعة منطقياً لأن النماذج الأكبر تخزن كميات أكبر من المعلومات في معاملاتها خلال مرحلة التدريب المسبق.

المليون رمز: من إمكانية نظرية إلى واقع يومي

لطالما كان دعم سياق المليون رمز إعلاناً تسويقياً أكثر منه إمكانية عملية، لأن التكلفة الحسابية تجعل الاستخدام المنتظم غير اقتصادي. سلسلة V4 تقلب هذه المعادلة.

عند سياق مليون رمز، يستهلك DeepSeek-V4-Pro ما يعادل 27% فقط من العمليات الحسابية لكل كلمة مقارنة بالإصدار V3.2، بينما يصل Flash إلى 10% فقط. ذاكرة التخزين المؤقتة KV تنكمش إلى 10% و7% على التوالي. هذه ليست مجرد تحسينات هامشية — إنها إعادة تعريف لما يعنيه أن يكون النموذج قادراً على استيعاب مشروع برمجي كامل أو قاعدة معرفية ضخمة في جلسة واحدة دون تكاليف باهظة.

في معيار MRCR لاسترجاع المعلومات من نصوص تصل إلى مليون رمز، حقق Pro-Max نسبة 83.5% متجاوزاً Gemini-3.1-Pro. الأهم من الرقم هو استقرار الأداء: يظل الاسترجاع شبه ثابت حتى 128 ألف رمز قبل أن يبدأ تراجع تدريجي خفيف نحو نهاية النافذة — وهو منحنى انحداري أقل حدة بكثير مما تظهره النماذج المنافسة.

المشهد التنافسي: أين يقف DeepSeek-V4 الآن؟

في مجال البرمجة التنافسية، DeepSeek-V4-Pro هو أقوى نموذج مفتوح المصدر حتى الآن دون منازع. في المهام الوكيلية — حيث يُطلب من النموذج استخدام أدوات خارجية وإنجاز مهام متعددة الخطوات — سجل 73.6% في MCPAtlas متفوقاً على GPT-5.4 xHigh وGemini-3.1-Pro-High. وفي التقييم الداخلي للشركة على مهام ترميز هندسي من بيئات إنتاج حقيقية، حقق معدل نجاح 67% مقارنة بـ 70% لـ Claude Opus 4.5 و47% لـ Claude Sonnet 4.5.

هذه الأرقام ترسم صورة أوضح مما قد توحي به العناوين وحدها: الفجوة بين النماذج المفتوحة والمغلقة لم تختفِ، لكنها تقلصت بشكل دراماتيكي في بعض المجالات وتلاشت تقريباً في البرمجة. السؤال المفتوح الآن لا يتعلق بما حققته DeepSeek في هذا الإصدار، بل بما ستتمكن من تحقيقه في الإصدارات القادمة إن استمرت على هذا المنحى من الابتكار المعماري — وليس فقط التوسع في الحجم. فهل نشهد بداية عصر تصبح فيه النماذج المفتوحة المصدر الخيار الأول للمطورين والباحثين، لا البديل الاقتصادي فحسب؟

DeepSeek-V4-ProDeepSeek-V4-Flashنماذج لغوية مفتوحة المصدرسياق مليون رمز2026DeepSeek-V4DeepSeek
شارك المقال: Telegram

مقالات ذات صلة

DeepSeek V3.2: نموذج DeepSeek المفتوح المصدر الذي ينافس GPT-5 في الاستدلال والوكلاء الذكيين بتكلفة أقل
نماذج

DeepSeek V3.2: نموذج DeepSeek المفتوح المصدر الذي ينافس GPT-5 في الاستدلال والوكلاء الذكيين بتكلفة أقل

دليل شامل: أطلقت DeepSeek في 1 ديسمبر 2025 نموذج DeepSeek-V3.2، النموذج المفتوح الذي يجمع بين كفاءة حسابية عالية وأداء استدلالي يضاهي GPT-5 مع دعم متقدم للمهام الوكيلية. - اكتشف أهم التفاصيل والمقارنات التي تحتاجها.

٤ أبريل ٢٠٢٦ اقرأ المزيد
MiMo V2.5 Pro: نموذج شاومي الجديد يُسيطر على المهام الوكيلة الطويلة ويكسر حاجز الألف أداة
نماذج

MiMo V2.5 Pro: نموذج شاومي الجديد يُسيطر على المهام الوكيلة الطويلة ويكسر حاجز الألف أداة

أطلقت شاومي في 22 أبريل 2026 نموذج MiMo-V2.5-Pro، أقوى نماذجها حتى الآن، يُنجز مهام هندسية تستغرق أسابيع في ساعات، ويتفوق على Claude Opus 4.6 في كفاءة الرموز بنسبة 40–60%.

٢٢ أبريل ٢٠٢٦ اقرأ المزيد
FLUX.2 Pro: النموذج الإنتاجي من Black Forest Labs لتوليد وتحرير الصور بدقة 4 ميغابيكسل
نماذج

FLUX.2 Pro: النموذج الإنتاجي من Black Forest Labs لتوليد وتحرير الصور بدقة 4 ميغابيكسل

دليل شامل: استعراض شامل لـFLUX.2 Pro الصادر في نوفمبر 2025، مع المواصفات الفنية، قدرات التحرير متعدد المراجع، والتطبيقات العملية - اكتشف أهم التفاصيل والمقارنات التي تحتاجها.

٤ أبريل ٢٠٢٦ اقرأ المزيد