DeepSeek V4: บริบท 1 ล้าน Token, ลดต้นทุน 73%
คำสำคัญ: deepseek v4, เว็บไซต์ทางการ deepseek, บทช่วยสอน deepseek, ราคา deepseek v4
วันที่เผยแพร่: 2026-04-24
ผู้เขียน: DeepSeek HK

วันนี้ DeepSeek ได้เปิดตัวและเปิดแหล่งที่มาเวอร์ชันตัวอย่างของซีรีส์ DeepSeek-V4 อย่างเป็นทางการ ซึ่งเป็นระบบโมเดลเรือธงรุ่นถัดไปหลังจาก V3.2 การเปิดตัวนี้ประกอบด้วยโมเดลสองตัว: DeepSeek-V4-Pro และ DeepSeek-V4-Flash ทั้งคู่ใช้สถาปัตยกรรม MoE โดยมีขนาดพารามิเตอร์รวม 1.6T (เปิดใช้งาน 49B) และ 284B (เปิดใช้งาน 13B) ตามลำดับ และทั้งคู่รองรับบริบทสูงสุด 1 ล้าน token
DeepSeek ทางการยังระบุว่าเนื่องจากข้อจำกัดด้านกำลังประมวลผลระดับสูง ปริมาณการให้บริการของ DeepSeek-V4-Pro ในปัจจุบันมีจำกัดมาก คาดว่าหลังจากการเปิดตัวโหนดซุปเปอร์ Ascend 950 ในช่วงครึ่งหลังของปี ราคาจะลดลงอย่างมีนัยสำคัญ นอกจากนี้ DeepSeek-V4 ยังได้รับการสนับสนุนการปรับตัว Day 0 จาก Cambricon และรหัสการปรับตัวที่เกี่ยวข้องได้เปิดแหล่งที่มาให้กับชุมชน GitHub แล้ว
ความแตกต่างของตำแหน่งโมเดล
DeepSeek-V4-Pro เน้นที่ขีดจำกัดประสิทธิภาพ เปรียบเทียบกับโมเดลเรือธงแบบปิดแหล่งที่มา ในขณะที่ DeepSeek-V4-Flash ลดขนาดพารามิเตอร์และขนาดการเปิดใช้งานลงอย่างมาก เพื่อแลกกับความหน่วงต่ำกว่าและต้นทุนต่ำกว่า เมื่อเทียบกับโมเดลรุ่นก่อน มีการปรับปรุงเพิ่มเติมในด้านความสามารถ Agent, ความรู้โลก และงานเหตุผลที่ซับซ้อน และเป็นครั้งแรกที่เปิด “บริบท 1 ล้าน token” เป็นความสามารถเริ่มต้น
ความสามารถ Agent เพิ่มขึ้นอย่างมาก
ในด้านความสามารถ Agent, DeepSeek-V4-Pro มีความสามารถ Agent เพิ่มขึ้นอย่างมีนัยสำคัญ มันได้เข้าสู่ชั้นแรกของแหล่งที่มาเปิดในการประเมินเช่น Agentic Coding การประเมินภายในแสดงให้เห็นว่าคุณภาพการส่งมอบใกล้เคียงกับโหมดไม่คิดของ Claude Opus 4.6 แต่ยังคงมีช่องว่างเมื่อเทียบกับโหมดการคิดของมัน
DeepSeek-V4-Pro ได้เกินกว่าโมเดลแหล่งที่มาเปิดที่ประเมินอย่างเปิดเผยในปัจจุบันในงานระดับความยากสูงเช่น คณิตศาสตร์, STEM และโค้ดการแข่งขัน และประสิทธิภาพโดยรวมใกล้เคียงหรือเทียบเท่ากับโมเดลแบบปิดแหล่งที่มาชั้นนำเช่น GPT-5.4 และ Claude Opus 4.6-Max
ต้นทุนบริบทยาวลดลงอย่างมีนัยสำคัญ
ในเวลาเดียวกัน, DeepSeek-V4 ได้แนะนำชุดการปรับให้เหมาะสมที่รุนแรงยิ่งขึ้นในประสิทธิภาพบริบทยาว: ในสถานการณ์ 1 ล้าน token, การคำนวณการอนุมาน token เดียวของมันเป็นเพียง 27% ของ V3.2 และการใช้งาน KV Cache ลดลงเหลือประมาณ 10% ลดต้นทุนกำลังประมวลผลและหน่วยความจำวิดีโอสำหรับงานลิงก์ยาวอย่างมีนัยสำคัญ
แผนราคา API
ราคา API ที่ประกาศโดยทางการสำหรับซีรีส์ DeepSeek-V4:
- DeepSeek-V4-Pro: อินพุตแคช 1 หยวน / ล้าน token, อินพุตไม่แคช 12 หยวน / ล้าน token, เอาต์พุต 24 หยวน / ล้าน token
- DeepSeek-V4-Flash: อินพุตแคชเพียง 0.2 หยวน / ล้าน token, อินพุตไม่แคช 1 หยวน / ล้าน token, เอาต์พุต 2 หยวน / ล้าน token
ปัจจุบัน ซีรีส์ DeepSeek-V4 ได้เปิดตัวบนเว็บไซต์ทางการและแอป และ API และน้ำหนักโมเดลเปิดพร้อมกัน
ประสบการณ์การใช้งานจริง: การปรับปรุงความสามารถอย่างครอบคลุม
เราได้สัมผัสกับการเปลี่ยนแปลงของ DeepSeek-V4 ในเบื้องต้น โดยทดสอบโมเดล DeepSeek-V4-Pro เป็นหลัก
ความสามารถการเขียนโปรแกรม Agentic ปรับปรุงขึ้นอย่างมีนัยสำคัญ
ในกรณี one-shot เว็บไซต์ส่วนหน้า, DeepSeek-V4-Pro แสดงให้เห็นถึงประสิทธิภาพการดำเนินการสูง เนื่องจากความต้องการไม่ซับซ้อน โมเดลใช้เวลาเพียง 5 วินาทีในการคิด จากนั้นพัฒนาอย่างรวดเร็ว ซึ่งแตกต่างจากรูปแบบของโมเดล DeepSeek ก่อนหน้าที่สิ้นเปลือง token มากในการคิด หลังจากเข้าสู่กระบวนการสร้างจริง ความยาวเอาต์พุตของ DeepSeek-V4-Pro ยาวกว่าโมเดล DeepSeek อื่นอย่างมีนัยสำคัญ ความเร็วในการสร้างเร็ว โดยพื้นฐานแล้วส่งออกเป็นหน่วย 5 บรรทัดของโค้ด และระดับความสมบูรณ์ของหน้าเว็บสูงกว่า DeepSeek-V3.2 มีการออกแบบที่หลากหลายมากขึ้น
ในการทดสอบงานที่รวมความสามารถ Agent และการเขียนโปรแกรม, DeepSeek-V4-Pro สามารถทำการเรียกเครื่องมือหลายรอบที่ซับซ้อน และจำนวนรายการค้นหาออนไลน์ก็เพิ่มขึ้นเมื่อเทียบกับโมเดลก่อนหน้า และการรวบรวมข้อมูลครอบคลุมมากขึ้น แผนการเดินทางที่สร้างขึ้นในที่สุดวางแผนอย่างสมเหตุสมผล และมาพร้อมกับตำแหน่งของแต่ละสถานที่ท่องเที่ยว ซึ่งสามารถใช้งานได้โดยตรงในแอปนำทางหลังจากคลิก ซึ่งสะดวกมาก ในงาน Agent สามารถสังเกตได้ว่าการกระทำของมันเด็ดขาดมาก การเรียกเครื่องมือและการคิดแก้ไขภายในไม่กี่วินาที และประสิทธิภาพ token ดี
การทดสอบความสามารถบริบท 1 ล้าน Token ในทางปฏิบัติ
ซีรีส์โมเดล DeepSeek-V4 รองรับบริบท 1 ล้าน token เราได้อัปโหลดไตรภาค “สามก๊ก” ฉบับสมบูรณ์ (รวมประมาณ 540,000 token) เพื่อทดสอบ และโมเดลสามารถระบุตำแหน่งเนื้อหาที่ระบุได้อย่างรวดเร็ว ประสบความสำเร็จในการดึงข้อมูลในข้อความที่ยาวมาก
การทดสอบวันที่ตัดข้อมูลความรู้แสดงให้เห็นว่าวันที่ตัดข้อมูลความรู้ของ DeepSeek-V4-Pro ยังคงอยู่ในปี 2025 นอกจากนี้ โมเดลนี้ยังไม่รองรับความสามารถด้านภาพในขณะนี้ หลังจากอัปโหลดรูปภาพ มันจะยังคงดำเนินการแยกข้อความ และรูปภาพที่ไม่มีข้อความจะแสดงว่าไม่สามารถประมวลผลได้
นวัตกรรมสถาปัตยกรรมทางเทคนิค
การเปลี่ยนแปลงที่ตรงที่สุดของรุ่น V4 นี้คือ “บริบทยาว” กลายเป็นความสามารถเริ่มต้น ต่างจากวิธีการขยายหน้าต่างอย่างง่ายแบบดั้งเดิม, DeepSeek-V4-Pro แนะนำสถาปัตยกรรมความสนใจแบบผสมใหม่ รวม Compressed Sparse Attention กับ High Compression Attention (HCA) และทำงานร่วมกับความสนใจเบาบาง DSA เพื่อบีบอัดในขั้นตอน token
นอกจากนี้ โมเดลยังแนะนำการเชื่อมต่อไฮเปอร์ที่มีข้อจำกัดรูปร่าง (mHC) เพื่อเสริมการเชื่อมต่อตกค้างแบบดั้งเดิม และใช้ตัวปรับให้เหมาะสม Muon เพื่อปรับปรุงความเร็วในการลู่เข้าและเสถิรภาพในการฝึกอบรม ชุดการออกแบบเหล่านี้ช่วยให้โมเดลสามารถควบคุมต้นทุนการคำนวณได้อย่างมีประสิทธิภาพในขณะที่ “จำได้นานขึ้น”
ตามข้อมูลทางการ ในบริบท 1 ล้าน token, TFLOP การอนุมาน token เดียวของ DeepSeek-V4-Pro ลดลงประมาณ 3.7 เท่าถึง 9.8 เท่าเมื่อเทียบกับ DeepSeek-V3.2 และการใช้งาน KV Cache ลดลง 9.5 เท่าถึง 13.7 เท่า ซึ่งหมายความว่างานลิงก์ยาวมากที่ยากต่อการเรียกใช้งานจริงในอดีต (เช่น การวางแผน Agent หลายรอบ, การประมวลผลเอกสารยาว) ได้เริ่มเข้าสู่ขอบเขตที่สามารถดำเนินการได้
ประสิทธิภาพ: ขีดจำกัดใหม่สำหรับโมเดลแหล่งที่มาเปิด
จากมุมมองของโครงสร้างความสามารถ การปรับปรุงของ DeepSeek-V4-Pro คือการปรับปรุงพร้อมกันของความสามารถในการเหตุผล, ความรู้ และความสามารถ Agent:
ความรู้และความสามารถในการเหตุผล
ในงานความรู้และการเหตุผล มันเกินกว่าโมเดลแหล่งที่มาเปิดกระแสหลักในปัจจุบันในการประเมินเช่น SimpleQA, Apex, Codeforces และใกล้เคียงกับ GPT-5.4 และ Gemini 3.1 Pro ในหลายงาน เช่น มันได้คะแนน 90.2 คะแนนในรายชื่อสั้น Apex ซึ่งเกินกว่าโมเดลแบบปิดแหล่งที่มาชั้นนำแล้ว และยังคงรักษาระดับชั้นแรกในงานการแข่งขันเช่น Codeforces
ความสามารถ Agent
ในงานที่เกี่ยวข้องกับความสามารถ Agent, DeepSeek-V4-Pro แสดงประสิทธิภาพที่เสถียรในตัวบ่งชี้เช่น SWE Verified และ Terminal Bench SWE Verified ถึง 80.6 ใกล้เคียงกับ Claude Opus 4.6 สูงกว่าโมเดลแหล่งที่มาเปิดส่วนใหญ่อย่างมีนัยสำคัญ ใน Terminal Bench 2.0 ประสิทธิภาพของมันยังเกินกว่าโมเดลเช่น GLM-5.1 Thinking และ Kimi K2.6 Thinking
โดยรวมแล้ว DeepSeek-V4-Pro ในขณะนี้คือ “ขีดจำกัด” ของโมเดลแหล่งที่มาเปิด
การปรับให้เหมาะสมพิเศษสำหรับสถานการณ์ Agent
รุ่น DeepSeek-V4 นี้เสริมสร้างการปรับตัวสำหรับสถานการณ์ Agent อย่างมีนัยสำคัญ มันได้ดำเนินการปรับให้เหมาะสมพิเศษสำหรับเฟรมเวิร์ก Agent หลักเช่น Claude Code, OpenClaw และ CodeBuddy และแสดงประสิทธิภาพที่เสถียรยิ่งขึ้นในงานหลายขั้นตอนเช่น การสร้างโค้ดและการสร้างเอกสาร
จากมุมมองการวางตำแหน่งจริง DeepSeek-V4-Pro ได้ถูกใช้เป็นโมเดลการเขียนโปรแกรม Agentic ภายใน DeepSeek โดยเน้นที่ “การทำงานให้เสร็จสิ้น” สำหรับงานง่าย V4-Flash ใกล้เคียงกับเวอร์ชัน Pro แล้ว แต่ยังคงมีช่องว่างที่ชัดเจนในงานที่ซับซ้อน ซึ่งโดยพื้นฐานแล้วให้ “เกียร์กำลังประมวลผล” สองระดับสำหรับแอปพลิเคชัน Agent
บทสรุป
การเปิดตัว DeepSeek-V4 ไม่เพียงแต่แสดงให้เห็นถึงการสะสมของทีมในด้านเทคโนโลยีและสถาปัตยกรรม แต่ยังเป็นสัญลักษณ์ของความสามารถในการนำไปใช้จริงของโมเดลขนาดใหญ่แหล่งที่มาเปิดภายใต้ระบบนิเวศกำลังประมวลผลภายในประเทศ หลังจากการปรับตัวและการปรับให้เหมาะสมสำหรับชิปภายในประเทศเช่น Huawei Ascend และ Cambricon ซีรีส์ DeepSeek-V4 ได้บรรลุการสนับสนุนที่เสถียรและการอนุมานที่มีประสิทธิภาพสำหรับบริบท 1 ล้าน token ทำให้งานลิงก์ยาวและการดำเนินการ Agent หลายขั้นตอนเป็นไปได้
เวอร์ชันนี้ดำเนินการตามตำแหน่งที่แตกต่างกันของ Pro และ Flash ใกล้เคียงกับโมเดลเรือธงแบบปิดแหล่งที่มาในด้านประสิทธิภาพ และรักษาความคุ้มค่าสูงในด้านต้นทุน มอบตัวเลือกการเปิดที่ไม่เคยมีมาก่อนให้กับนักพัฒนาภายในประเทศ ที่สำคัญยิ่งกว่านั้น การเปิดตัวครั้งนี้แสดงให้เห็นว่าโมเดลแหล่งที่มาเปิดไม่เพียงแต่สามารถยืนหยัดอย่างมั่นคงในความสามารถในการแข่งขันระดับโลก แต่ยังสามารถแปลงศักยภาพทางเทคนิคเป็นผลิตภาพที่สามารถใช้งานได้จริงด้วยความช่วยเหลือจากกำลังประมวลผลภายในประเทศและสถาปัตยกรรมที่ปรับให้เหมาะสม
DeepSeek-V4 อาจเป็นขั้นตอนสำคัญที่กำลังถูกดำเนินการโดยกำลังแหล่งที่มาเปิดของจีนในแทร็ก AI ประสิทธิภาพสูง และยังให้คำแนะนำที่ชัดเจนสำหรับนวัตกรรมและการนำไปใช้จริงของระบบนิเวศ AI ภายในประเทศ