DeepSeek API缓存降价超九成
DeepSeek API 价格策略调整:国产大模型引领成本革命
近日,国产大模型 DeepSeek 宣布对其全系列 API 输入缓存命中价格进行大幅下调,降至首发价的十分之一。此举措,特别是结合限时优惠,将 V4-Pro 模型的缓存输入价格推至每百万 Tokens 仅 0.025 元,创下了全球大模型领域的价格新低,预示着 AI 应用的普惠化进程正在加速。
此次价格调整的核心聚焦于输入缓存命中场景,覆盖了 DeepSeek-V4-Pro 和 V4-Flash 全系列模型。其中,备受关注的 DeepSeek-V4-Pro 模型,其输入缓存命中价格从原先的每百万 Tokens 1 元,直接降至 0.1 元。在 5 月 5 日之前,叠加 2.5 折的限时优惠后,实际支付价格更是低至 0.025 元/百万 Tokens。
另一款模型 DeepSeek-V4-Flash 的价格也随之优化,输入缓存命中价格从 0.2 元降至 0.02 元/百万 Tokens,该价格不包含额外折扣。

更值得注意的是,缓存未命中与输出的价格也同步进行了优化。V4-Pro 模型的输入(未命中)价格调整为 3 元,输出价格为 6 元。V4-Flash 模型的输入(未命中)价格为 1 元,输出价格为 2 元。这些新价格均为原价的四分之一,进一步降低了用户的使用门槛。
DeepSeek 此番价格调整,被认为是直击当前行业发展痛点。其缓存输入价格仅为 GPT-5.5 Pro 的七百分之一,这将显著降低企业在处理长文本和高频调用场景下的成本负担。对于 RAG(检索增强生成)知识库、智能客服、文档分析等对缓存命中率要求极高的应用而言,其成本有望实现超过 90% 的削减。

在技术层面,DeepSeek-V4 模型采用了自研的稀疏注意力架构,支持高达 160k 的超长上下文,这使得其在处理长文本方面具有显著的效率优势。目前,该模型已成功适配华为云、阿里云等八大主流云平台及多家智算中心,为广泛应用奠定了坚实的基础。
业内人士普遍认为,DeepSeek 的这一激进价格策略,不仅将重塑整个行业的价格体系,加速 AI 应用的普及,还有望对海外模型形成降价压力,从而进一步巩固国产大模型在成本控制方面的优势。
DeepSeek 本轮 API 价格的调整,以其颠覆性的定价策略,直接回应了当前 AI 应用落地面临的成本挑战,标志着国产大模型在技术实力和市场竞争力上的双重突破,预示着一个更加开放和普惠的 AI 新时代的到来。