DeepSeek-V4 问世,百万上下文仅需一元
DeepSeek 今日发布了其最新的大语言模型 DeepSeek-V4,标志着开源 AI 领域在性能上迈出了重要一步。这款新模型在多项关键评测中展现出与当前顶尖闭源模型相媲美的实力,尤其在处理长文本和复杂任务方面表现突出。
DeepSeek-V4 的一个显著亮点是其高达 100 万 token 的超长上下文窗口。这一特性为处理海量数据、深度文档分析以及需要保持长期记忆的 Agent 任务提供了前所未有的支持。为了满足不同应用场景的需求,新模型推出了两个版本:DeepSeek-V4-Flash 专为追求效率和快速迭代的开发者设计,而 DeepSeek-V4-Pro 则面向需要极致性能的专业用户。
在技术能力方面,DeepSeek-V4-Pro 在数学推理、STEM 领域以及竞赛级代码生成等评测中,已超越了当前所有公开评测的开源模型。其 Agent 能力也得到了大幅提升,在 Agentic Coding 等专业评测中达到了开源模型的最高水平。此外,该模型在世界知识储备方面也取得了长足进步,紧随行业领先的闭源模型之后,展现了其强大的信息整合与调用能力。
DeepSeek-V4 系列在定价策略上延续了其一贯的“性价比”路线。以百万 token 为单位的输入输出成本极具竞争力,例如 Flash 版的输入费用仅为 1 元,输出为 2 元。这一举措旨在降低高性能 AI 模型的应用门槛,使其能更广泛地被开发者和中小企业所采用,有望推动 AI 技术的普及和创新应用。
DeepSeek-V4 的发布无疑为开源大模型生态注入了新的活力,其强大的性能和极具吸引力的成本效益,预示着 AI 领域的竞争格局可能迎来新的变化。