DeepSeek V4: زمینه ۱ میلیون توکن، کاهش هزینه ۷۳ درصد
کلمات کلیدی: deepseek v4، وبسایت رسمی deepseek، آموزش deepseek، قیمت deepseek v4
تاریخ انتشار: ۲۴ آوریل ۲۰۲۶
نویسنده: DeepSeek HK

امروز، DeepSeek به طور رسمی نسخه پیشنمایش سری DeepSeek-V4 را منتشر و منبع باز کرد، سیستم مدل پرچمدار نسل بعدی پس از V3.2. این انتشار شامل دو مدل است: DeepSeek-V4-Pro و DeepSeek-V4-Flash، هر دو از معماری MoE با مقیاس پارامتر کل ۱.۶ ترا (۴۹ میلیارد فعال) و ۲۸۴ میلیارد (۱۳ میلیارد فعال) به ترتیب استفاده میکنند و هر دو از حداکثر ۱ میلیون توکن زمینه پشتیبانی میکنند.
DeepSeek رسمی همچنین اعلام کرد که به دلیل محدودیت قدرت محاسباتی سطح بالا، توان عملیاتی سرویس فعلی DeepSeek-V4-Pro بسیار محدود است. انتظار میرود پس از راهاندازی انبوه گرههای فوقالعاده Ascend 950 در نیمه دوم سال، قیمت آن به طور قابل توجهی کاهش یابد. علاوه بر این، DeepSeek-V4 از پشتیبانی تطبیق روز ۰ Cambricon بهره میبرد و کد تطبیق مربوطه به طور منبع باز به جامعه GitHub ارائه شده است.
تفاوتهای موقعیتدهی مدل
DeepSeek-V4-Pro بر حداکثر عملکرد تمرکز دارد و با مدلهای پرچمدار منبع بسته مقایسه میشود؛ در حالی که DeepSeek-V4-Flash به طور قابل توجهی مقیاس پارامتر و مقیاس فعالسازی را به معامله برای تأخیر کمتر و هزینه پایینتر کاهش میدهد. در مقایسه با مدل نسل قبل، در قابلیتهای عامل، دانش جهانی و وظایف استدلال پیچیده بهبود بیشتری داشته است و برای اولین بار، “زمینه ۱ میلیون توکن” به عنوان قابلیت پیشفرض باز شده است.
قابلیتهای عامل بهبود یافته قابل توجه
از نظر قابلیتهای عامل، قابلیتهای عامل DeepSeek-V4-Pro به طور قابل توجهی بهبود یافته است. در ارزیابیهایی مانند برنامهنویسی عاملمحور به رده اول منبع باز وارد شده است. ارزیابیهای داخلی نشان میدهند که کیفیت تحویل آن نزدیک به حالت غیر تفکر Claude Opus 4.6 است، اما در مقایسه با حالت تفکر آن هنوز فاصله وجود دارد.
DeepSeek-V4-Pro در وظایف با دشواری بالا مانند ریاضیات، STEM و کد مسابقه از مدلهای منبع باز در حال حاضر ارزیابی شده عمومی بهتر عمل کرده است و عملکرد کلی آن نزدیک یا حتی قابل مقایسه با مدلهای برتر منبع بسته مانند GPT-5.4 و Claude Opus 4.6-Max است.
کاهش قابل توجه هزینه زمینه طولانی
در عین حال، DeepSeek-V4 مجموعهای از بهینهسازیهای شدیدتر را در بهرهوری زمینه طولانی معرفی کرده است: در سناریوهای ۱ میلیون توکن، محاسبه استنتاج برای هر توکن تنها ۲۷ درصد از V3.2 است و استفاده از حافظه پنهان KV به حدود ۱۰ درصد کاهش یافته است که به طور قابل توجهی هزینه قدرت محاسباتی و حافظه ویدیویی وظایف پیوند طولانی را کاهش میدهد.
طرح قیمت API
قیمت API اعلام شده رسمی برای سری DeepSeek-V4:
- DeepSeek-V4-Pro: ۱ یوآن / میلیون توکن برای ورودی ذخیره شده در حافظه پنهان، ۱۲ یوآن / میلیون توکن برای ورودی ذخیره نشده، ۲۴ یوآن / میلیون توکن برای خروجی
- DeepSeek-V4-Flash: تنها ۰.۲ یوآن / میلیون توکن برای ورودی ذخیره شده در حافظه پنهان، ۱ یوآن / میلیون توکن برای ورودی ذخیره نشده، ۲ یوآن / میلیون توکن برای خروجی
در حال حاضر، سری DeepSeek-V4 در وبسایت رسمی و اپلیکیشن راهاندازی شده است و APIها و وزنهای مدل به طور همزمان باز شدهاند.
تجربه عملی: بهبود جامع قابلیتها
ما در ابتدا تغییرات DeepSeek-V4 را تجربه کردیم، عمدتاً مدل DeepSeek-V4-Pro را آزمایش کردیم.
قابلیت برنامهنویسی عاملمحور به طور قابل توجهی بهبود یافته
در مورد توسعه وب فرانتاند یکبار، DeepSeek-V4-Pro راندمان اجرای بالا را نشان داد. از آنجایی که الزامات پیچیده نبودند، مدل تنها ۵ ثانیه برای تفکر وقت گرفت و سپس به سرعت توسعه داد، که به طور قابل توجهی با الگوی مدلهای قبلی DeepSeek که تعداد زیادی توکن را در تفکر هدر میدهند، تفاوت دارد. پس از ورود به فرآیند تولید واقعی، طول خروجی DeepSeek-V4-Pro به طور قابل توجهی طولانیتر از سایر مدلهای DeepSeek است، با سرعت تولید سریع، اساساً به واحدهای ۵ خط کد خروجی میدهد و درجه تکمیل صفحه وب بالاتر از DeepSeek-V3.2 است، با طراحی غنیتر.
در آزمایش وظیفه که قابلیتهای عامل و برنامهنویسی را ترکیب میکند، DeepSeek-V4-Pro میتواند تماسهای ابزار پیچیده چند مرحلهای را انجام دهد و تعداد ورودیهای جستجوی آنلاین نیز در مقایسه با مدلهای قبلی افزایش یافته است و جمعآوری اطلاعات جامعتر است. برنامه سفر تولید نهایی به طور منطقی برنامهریزی شده است و به موقعیت هر جاذبه گردشگری مجهز است که پس از کلیک میتواند مستقیماً در اپلیکیشن ناوبری استفاده شود، که بسیار راحت است. در وظایف عامل، میتوان مشاهده کرد که اقدامات آن بسیار مصمم است، تماسهای ابزار و تفکر در عرض چند ثانیه حل میشود و بهرهوری توکن خوب است.
آزمایش عملی زمینه ۱ میلیون توکن
مدلهای سری DeepSeek-V4 از زمینه ۱ میلیون توکن پشتیبانی میکنند. ما سهگانه کامل “سه جسم” (در مجموع حدود ۵۴۰ هزار توکن) را برای آزمایش آپلود کردیم و مدل میتواند به سرعت محتوای مشخص شده را مکانیابی کند و با موفقیت بازیابی اطلاعات در متون بسیار طولانی را实现 میکند.
آزمایش تاریخ قطع دانش نشان میدهد که تاریخ قطع دانش DeepSeek-V4-Pro هنوز در سال ۲۰۲۵ است. علاوه بر این، این مدل فعلاً از قابلیتهای بصری پشتیبانی نمیکند. پس از آپلود تصاویر، هنوز استخراج متن را انجام میدهد و تصاویر بدون متن نشان میدهند که نمیتوانند پردازش شوند.
نوآوری معماری فنی
مستقیمترین تغییر این نسل V4 این است که “زمینه طولانی” به یک قابلیت پیشفرض تبدیل شده است. برخلاف روش سنتی که به سادگی پنجره را گسترش میدهد، DeepSeek-V4-Pro یک معماری توجه ترکیبی جدید را معرفی میکند که توجه پراکنده فشرده را با توجه با فشردهسازی بالا (HCA) ترکیب میکند و با توجه پراکنده DSA برای فشردهسازی در بعد توکن همکاری میکند.
علاوه بر این، مدل اتصال فوقالعاده محدود شده به منیفولد (mHC) را برای بهبود اتصالات باقیمانده سنتی معرفی میکند و از بهینهساز Muon برای بهبود سرعت همگرایی و پایداری آموزشی استفاده میکند. این سری از طرحها به مدل اجازه میدهند تا در حین “یادآوری برای مدت طولانیتر”، هزینه محاسبه را به طور مؤثر کنترل کند.
بر اساس دادههای رسمی، در زمینه ۱ میلیون توکن، TFLOP های استنتاج برای هر توکن DeepSeek-V4-Pro در مقایسه با DeepSeek-V3.2 حدود ۳.۷ تا ۹.۸ برابر کاهش یافته است و استفاده از حافظه پنهان KV ۹.۵ تا ۱۳.۷ برابر کاهش یافته است. این به این معنی است که وظایف پیوند بسیار طولانی که در گذشته به سختی میتوانستند به طور واقعی اجرا شوند (مانند برنامهریزی عامل چند مرحلهای، پردازش اسناد طولانی) شروع به ورود به محدوده قابل اجرا کردهاند.
عملکرد: سقف جدید برای مدلهای منبع باز
از منظر ساختار قابلیت، بهبود DeepSeek-V4-Pro بهبود همزمان قابلیتهای استدلال، دانش و عامل است:
قابلیتهای دانش و استدلال
در وظایف دانش و استدلال، در ارزیابیهایی مانند SimpleQA، Apex و Codeforces از مدلهای منبع باز رایج فعلی بهتر عمل میکند و در بسیاری از وظایف نزدیک به GPT-5.4 و Gemini 3.1 Pro است. برای مثال، در لیست کوتاه Apex ۹۰.۲ امتیاز گرفته است که قبلاً از مدلهای برتر منبع بسته بهتر عمل کرده است؛ همچنین در وظایف مسابقه مانند Codeforces در سطح رده اول باقی میماند.
قابلیتهای عامل
در وظایف مربوط به قابلیت عامل، DeepSeek-V4-Pro در شاخصهایی مانند SWE Verified و Terminal Bench عملکرد پایداری دارد. SWE Verified به ۸۰.۶ میرسد که نزدیک به Claude Opus 4.6 است و به طور قابل توجهی بالاتر از اکثر مدلهای منبع باز است. در Terminal Bench 2.0، عملکرد آن نیز از مدلهایی مانند GLM-5.1 Thinking و Kimi K2.6 Thinking بهتر است.
به طور کلی، DeepSeek-V4-Pro در حال حاضر “سقف” مدلهای منبع باز است.
بهینهسازی خاص برای سناریوهای عامل
این نسل DeepSeek-V4 به طور قابل توجهی سازگاری با سناریوهای عامل را تقویت کرده است. برای چارچوبهای عامل رایج مانند Claude Code، OpenClaw و CodeBuddy بهینهسازیهای خاص انجام داده است و در وظایف چند مرحلهای مانند تولید کد و تولید سند پایدارتر عمل میکند.
از منظر موقعیتدهی واقعی، DeepSeek-V4-Pro در حال حاضر به عنوان مدل برنامهنویسی عاملمحور در داخل DeepSeek استفاده میشود که بر “تکمیل وظایف” تمرکز دارد. برای وظایف ساده، V4-Flash قبلاً نزدیک به نسخه Pro است، اما در وظایف پیچیده هنوز فاصله قابل توجهی وجود دارد که اساساً دو “دنده قدرت محاسباتی” را برای برنامههای کاربردی عامل ارائه میدهد.
نتیجه
انتشار DeepSeek-V4 نه تنها انباشت تیم در فناوری و معماری را نشان میدهد، بلکه همچنین نشاندهنده قابلیت اجرای واقعی مدلهای بزرگ منبع باز تحت اکوسیستم قدرت محاسباتی داخلی است. پس از تطبیق و بهینهسازی برای تراشههای داخلی مانند Huawei Ascend و Cambricon، سری DeepSeek-V4 به پشتیبانی پایدار و استنتاج کارآمد برای زمینه ۱ میلیون توکن دست یافته است که وظایف پیوند طولانی و اجرای عامل چند مرحلهای را ممکن میسازد.
این نسل موقعیتدهی متفاوت Pro و Flash را پیادهسازی میکند، از نظر عملکرد به مدلهای پرچمدار منبع بسته نزدیک میشود و هزینهزایی بالایی در هزینه حفظ میکند که گزینههای باز بیسابقه را برای توسعهدهندگان داخلی ارائه میدهد. مهمتر از آن، این انتشار نشان میدهد که مدلهای منبع باز نه تنها میتوانند در رقابت جهانی پایه محکم بزنند، بلکه همچنین میتوانند با کمک قدرت محاسباتی داخلی و معماری بهینهسازی شده، پتانسیل فنی را به بهرهوری عملی تبدیل کنند.
DeepSeek-V4 ممکن است یک گام کلیدی باشد که نیروی منبع باز چین در مسیر هوش مصنوعی با عملکرد بالا برداشته است و همچنین راهنمای واضحی برای نوآوری و اجرای اکوسیستم هوش مصنوعی داخلی ارائه میدهد.