DeepSeek V4预览版发布:100万token上下文,性能逼近前沿模型
📅 2026年4月24日📰 TechCrunch⏱️ 阅读时间 4 分钟
🚀 DeepSeek V4震撼发布!100万token上下文、1.6万亿参数、性能逼近GPT-5.4,中国开源大模型再创里程碑。
开源新里程碑
中国AI实验室DeepSeek推出其最新大型语言模型DeepSeek V4的两个预览版本,再次刷新开源模型的天花板。
这次发布的两个版本——DeepSeek V4 Flash和DeepSeek V4 Pro,是对去年发布的V3.2模型及其R1推理模型的重要更新。
核心规格
两款模型均采用专家混合架构(MoE),通过每项任务仅激活部分参数来降低推理成本。
- 上下文窗口: 均配备100万token上下文窗口
- V4 Pro: 总参数1.6万亿,活跃参数490亿,是目前最大的开放权重模型
- V4 Flash: 总参数2840亿,活跃参数130亿
💡 100万token意味着什么?可一次性处理整本书籍、完整代码库或数百页技术文档。
性能表现
DeepSeek宣称,由于架构改进,新模型比V3.2更高效、性能更强,在推理基准测试上几乎"弥合了与前沿模型的差距"。
- 推理能力: V4-Pro-Max在推理基准上优于其他开源同行,部分任务超越GPT-5.2和Gemini 3.0 Pro
- 编程能力: 在编码竞赛基准中,两款V4模型性能与GPT-5.4相当
- 知识测试: 略落后于GPT-5.4和Gemini 3.1 Pro,发展轨迹约比最先进前沿模型落后3-6个月
价格优势
DeepSeek V4是目前性价比最高的前沿模型之一:
- V4 Flash: 输入$0.14/百万token,输出$0.28/百万token
- V4 Pro: 输入$0.145/百万token,输出$3.48/百万token
价格低于GPT-5.4 Nano、Gemini 3.1 Flash、Claude Opus 4.7等模型。
结语
DeepSeek V4的发布,标志着中国开源大模型在性能上进一步逼近国际前沿水平。100万token上下文和极具竞争力的定价,让它成为开发者和企业的新选择。
📰 来源:TechCrunch