deepseek v4

DeepSeek V4: زمینه ۱ میلیون توکن، کاهش هزینه ۷۳ درصد

DeepSeek HK 12 دقیقه مطالعه

کلمات کلیدی: deepseek v4، وب‌سایت رسمی deepseek، آموزش deepseek، قیمت deepseek v4

تاریخ انتشار: ۲۴ آوریل ۲۰۲۶

نویسنده: DeepSeek HK

شروع استفاده از DeepSeek

DeepSeek V4: زمینه ۱ میلیون توکن، کاهش هزینه ۷۳ درصد

امروز، DeepSeek به طور رسمی نسخه پیش‌نمایش سری DeepSeek-V4 را منتشر و منبع باز کرد، سیستم مدل پرچمدار نسل بعدی پس از V3.2. این انتشار شامل دو مدل است: DeepSeek-V4-Pro و DeepSeek-V4-Flash، هر دو از معماری MoE با مقیاس پارامتر کل ۱.۶ ترا (۴۹ میلیارد فعال) و ۲۸۴ میلیارد (۱۳ میلیارد فعال) به ترتیب استفاده می‌کنند و هر دو از حداکثر ۱ میلیون توکن زمینه پشتیبانی می‌کنند.

DeepSeek رسمی همچنین اعلام کرد که به دلیل محدودیت قدرت محاسباتی سطح بالا، توان عملیاتی سرویس فعلی DeepSeek-V4-Pro بسیار محدود است. انتظار می‌رود پس از راه‌اندازی انبوه گره‌های فوق‌العاده Ascend 950 در نیمه دوم سال، قیمت آن به طور قابل توجهی کاهش یابد. علاوه بر این، DeepSeek-V4 از پشتیبانی تطبیق روز ۰ Cambricon بهره می‌برد و کد تطبیق مربوطه به طور منبع باز به جامعه GitHub ارائه شده است.

تفاوت‌های موقعیت‌دهی مدل

DeepSeek-V4-Pro بر حداکثر عملکرد تمرکز دارد و با مدل‌های پرچمدار منبع بسته مقایسه می‌شود؛ در حالی که DeepSeek-V4-Flash به طور قابل توجهی مقیاس پارامتر و مقیاس فعال‌سازی را به معامله برای تأخیر کمتر و هزینه پایین‌تر کاهش می‌دهد. در مقایسه با مدل نسل قبل، در قابلیت‌های عامل، دانش جهانی و وظایف استدلال پیچیده بهبود بیشتری داشته است و برای اولین بار، “زمینه ۱ میلیون توکن” به عنوان قابلیت پیش‌فرض باز شده است.

قابلیت‌های عامل بهبود یافته قابل توجه

از نظر قابلیت‌های عامل، قابلیت‌های عامل DeepSeek-V4-Pro به طور قابل توجهی بهبود یافته است. در ارزیابی‌هایی مانند برنامه‌نویسی عامل‌محور به رده اول منبع باز وارد شده است. ارزیابی‌های داخلی نشان می‌دهند که کیفیت تحویل آن نزدیک به حالت غیر تفکر Claude Opus 4.6 است، اما در مقایسه با حالت تفکر آن هنوز فاصله وجود دارد.

DeepSeek-V4-Pro در وظایف با دشواری بالا مانند ریاضیات، STEM و کد مسابقه از مدل‌های منبع باز در حال حاضر ارزیابی شده عمومی بهتر عمل کرده است و عملکرد کلی آن نزدیک یا حتی قابل مقایسه با مدل‌های برتر منبع بسته مانند GPT-5.4 و Claude Opus 4.6-Max است.

کاهش قابل توجه هزینه زمینه طولانی

در عین حال، DeepSeek-V4 مجموعه‌ای از بهینه‌سازی‌های شدیدتر را در بهره‌وری زمینه طولانی معرفی کرده است: در سناریوهای ۱ میلیون توکن، محاسبه استنتاج برای هر توکن تنها ۲۷ درصد از V3.2 است و استفاده از حافظه پنهان KV به حدود ۱۰ درصد کاهش یافته است که به طور قابل توجهی هزینه قدرت محاسباتی و حافظه ویدیویی وظایف پیوند طولانی را کاهش می‌دهد.

طرح قیمت API

قیمت API اعلام شده رسمی برای سری DeepSeek-V4:

  • DeepSeek-V4-Pro: ۱ یوآن / میلیون توکن برای ورودی ذخیره شده در حافظه پنهان، ۱۲ یوآن / میلیون توکن برای ورودی ذخیره نشده، ۲۴ یوآن / میلیون توکن برای خروجی
  • DeepSeek-V4-Flash: تنها ۰.۲ یوآن / میلیون توکن برای ورودی ذخیره شده در حافظه پنهان، ۱ یوآن / میلیون توکن برای ورودی ذخیره نشده، ۲ یوآن / میلیون توکن برای خروجی

در حال حاضر، سری DeepSeek-V4 در وب‌سایت رسمی و اپلیکیشن راه‌اندازی شده است و APIها و وزن‌های مدل به طور همزمان باز شده‌اند.

تجربه عملی: بهبود جامع قابلیت‌ها

ما در ابتدا تغییرات DeepSeek-V4 را تجربه کردیم، عمدتاً مدل DeepSeek-V4-Pro را آزمایش کردیم.

قابلیت برنامه‌نویسی عامل‌محور به طور قابل توجهی بهبود یافته

در مورد توسعه وب فرانت‌اند یک‌بار، DeepSeek-V4-Pro راندمان اجرای بالا را نشان داد. از آنجایی که الزامات پیچیده نبودند، مدل تنها ۵ ثانیه برای تفکر وقت گرفت و سپس به سرعت توسعه داد، که به طور قابل توجهی با الگوی مدل‌های قبلی DeepSeek که تعداد زیادی توکن را در تفکر هدر می‌دهند، تفاوت دارد. پس از ورود به فرآیند تولید واقعی، طول خروجی DeepSeek-V4-Pro به طور قابل توجهی طولانی‌تر از سایر مدل‌های DeepSeek است، با سرعت تولید سریع، اساساً به واحدهای ۵ خط کد خروجی می‌دهد و درجه تکمیل صفحه وب بالاتر از DeepSeek-V3.2 است، با طراحی غنی‌تر.

در آزمایش وظیفه که قابلیت‌های عامل و برنامه‌نویسی را ترکیب می‌کند، DeepSeek-V4-Pro می‌تواند تماس‌های ابزار پیچیده چند مرحله‌ای را انجام دهد و تعداد ورودی‌های جستجوی آنلاین نیز در مقایسه با مدل‌های قبلی افزایش یافته است و جمع‌آوری اطلاعات جامع‌تر است. برنامه سفر تولید نهایی به طور منطقی برنامه‌ریزی شده است و به موقعیت هر جاذبه گردشگری مجهز است که پس از کلیک می‌تواند مستقیماً در اپلیکیشن ناوبری استفاده شود، که بسیار راحت است. در وظایف عامل، می‌توان مشاهده کرد که اقدامات آن بسیار مصمم است، تماس‌های ابزار و تفکر در عرض چند ثانیه حل می‌شود و بهره‌وری توکن خوب است.

آزمایش عملی زمینه ۱ میلیون توکن

مدل‌های سری DeepSeek-V4 از زمینه ۱ میلیون توکن پشتیبانی می‌کنند. ما سه‌گانه کامل “سه جسم” (در مجموع حدود ۵۴۰ هزار توکن) را برای آزمایش آپلود کردیم و مدل می‌تواند به سرعت محتوای مشخص شده را مکان‌یابی کند و با موفقیت بازیابی اطلاعات در متون بسیار طولانی را实现 می‌کند.

آزمایش تاریخ قطع دانش نشان می‌دهد که تاریخ قطع دانش DeepSeek-V4-Pro هنوز در سال ۲۰۲۵ است. علاوه بر این، این مدل فعلاً از قابلیت‌های بصری پشتیبانی نمی‌کند. پس از آپلود تصاویر، هنوز استخراج متن را انجام می‌دهد و تصاویر بدون متن نشان می‌دهند که نمی‌توانند پردازش شوند.

نوآوری معماری فنی

مستقیم‌ترین تغییر این نسل V4 این است که “زمینه طولانی” به یک قابلیت پیش‌فرض تبدیل شده است. برخلاف روش سنتی که به سادگی پنجره را گسترش می‌دهد، DeepSeek-V4-Pro یک معماری توجه ترکیبی جدید را معرفی می‌کند که توجه پراکنده فشرده را با توجه با فشرده‌سازی بالا (HCA) ترکیب می‌کند و با توجه پراکنده DSA برای فشرده‌سازی در بعد توکن همکاری می‌کند.

علاوه بر این، مدل اتصال فوق‌العاده محدود شده به منیفولد (mHC) را برای بهبود اتصالات باقی‌مانده سنتی معرفی می‌کند و از بهینه‌ساز Muon برای بهبود سرعت همگرایی و پایداری آموزشی استفاده می‌کند. این سری از طرح‌ها به مدل اجازه می‌دهند تا در حین “یادآوری برای مدت طولانی‌تر”، هزینه محاسبه را به طور مؤثر کنترل کند.

بر اساس داده‌های رسمی، در زمینه ۱ میلیون توکن، TFLOP های استنتاج برای هر توکن DeepSeek-V4-Pro در مقایسه با DeepSeek-V3.2 حدود ۳.۷ تا ۹.۸ برابر کاهش یافته است و استفاده از حافظه پنهان KV ۹.۵ تا ۱۳.۷ برابر کاهش یافته است. این به این معنی است که وظایف پیوند بسیار طولانی که در گذشته به سختی می‌توانستند به طور واقعی اجرا شوند (مانند برنامه‌ریزی عامل چند مرحله‌ای، پردازش اسناد طولانی) شروع به ورود به محدوده قابل اجرا کرده‌اند.

عملکرد: سقف جدید برای مدل‌های منبع باز

از منظر ساختار قابلیت، بهبود DeepSeek-V4-Pro بهبود همزمان قابلیت‌های استدلال، دانش و عامل است:

قابلیت‌های دانش و استدلال

در وظایف دانش و استدلال، در ارزیابی‌هایی مانند SimpleQA، Apex و Codeforces از مدل‌های منبع باز رایج فعلی بهتر عمل می‌کند و در بسیاری از وظایف نزدیک به GPT-5.4 و Gemini 3.1 Pro است. برای مثال، در لیست کوتاه Apex ۹۰.۲ امتیاز گرفته است که قبلاً از مدل‌های برتر منبع بسته بهتر عمل کرده است؛ همچنین در وظایف مسابقه مانند Codeforces در سطح رده اول باقی می‌ماند.

قابلیت‌های عامل

در وظایف مربوط به قابلیت عامل، DeepSeek-V4-Pro در شاخص‌هایی مانند SWE Verified و Terminal Bench عملکرد پایداری دارد. SWE Verified به ۸۰.۶ می‌رسد که نزدیک به Claude Opus 4.6 است و به طور قابل توجهی بالاتر از اکثر مدل‌های منبع باز است. در Terminal Bench 2.0، عملکرد آن نیز از مدل‌هایی مانند GLM-5.1 Thinking و Kimi K2.6 Thinking بهتر است.

به طور کلی، DeepSeek-V4-Pro در حال حاضر “سقف” مدل‌های منبع باز است.

بهینه‌سازی خاص برای سناریوهای عامل

این نسل DeepSeek-V4 به طور قابل توجهی سازگاری با سناریوهای عامل را تقویت کرده است. برای چارچوب‌های عامل رایج مانند Claude Code، OpenClaw و CodeBuddy بهینه‌سازی‌های خاص انجام داده است و در وظایف چند مرحله‌ای مانند تولید کد و تولید سند پایدارتر عمل می‌کند.

از منظر موقعیت‌دهی واقعی، DeepSeek-V4-Pro در حال حاضر به عنوان مدل برنامه‌نویسی عامل‌محور در داخل DeepSeek استفاده می‌شود که بر “تکمیل وظایف” تمرکز دارد. برای وظایف ساده، V4-Flash قبلاً نزدیک به نسخه Pro است، اما در وظایف پیچیده هنوز فاصله قابل توجهی وجود دارد که اساساً دو “دنده قدرت محاسباتی” را برای برنامه‌های کاربردی عامل ارائه می‌دهد.

نتیجه

انتشار DeepSeek-V4 نه تنها انباشت تیم در فناوری و معماری را نشان می‌دهد، بلکه همچنین نشان‌دهنده قابلیت اجرای واقعی مدل‌های بزرگ منبع باز تحت اکوسیستم قدرت محاسباتی داخلی است. پس از تطبیق و بهینه‌سازی برای تراشه‌های داخلی مانند Huawei Ascend و Cambricon، سری DeepSeek-V4 به پشتیبانی پایدار و استنتاج کارآمد برای زمینه ۱ میلیون توکن دست یافته است که وظایف پیوند طولانی و اجرای عامل چند مرحله‌ای را ممکن می‌سازد.

این نسل موقعیت‌دهی متفاوت Pro و Flash را پیاده‌سازی می‌کند، از نظر عملکرد به مدل‌های پرچمدار منبع بسته نزدیک می‌شود و هزینه‌زایی بالایی در هزینه حفظ می‌کند که گزینه‌های باز بی‌سابقه را برای توسعه‌دهندگان داخلی ارائه می‌دهد. مهم‌تر از آن، این انتشار نشان می‌دهد که مدل‌های منبع باز نه تنها می‌توانند در رقابت جهانی پایه محکم بزنند، بلکه همچنین می‌توانند با کمک قدرت محاسباتی داخلی و معماری بهینه‌سازی شده، پتانسیل فنی را به بهره‌وری عملی تبدیل کنند.

DeepSeek-V4 ممکن است یک گام کلیدی باشد که نیروی منبع باز چین در مسیر هوش مصنوعی با عملکرد بالا برداشته است و همچنین راهنمای واضحی برای نوآوری و اجرای اکوسیستم هوش مصنوعی داخلی ارائه می‌دهد.

شروع استفاده از DeepSeek