DeepSeek-V4
中国AI公司深度求索发布的新一代开源大模型,1M超长上下文,Agent能力比肩顶级闭源模型
深度报告
-
DeepSeek-V4 是中国人工智能公司深度求索(DeepSeek)于2026年4月24日发布的新一代大语言模型预览版本,同步开源模型权重和技术报告。该产品包含Pro和Flash两个版本,全系标配1M(百万token)超长上下文,在Agent能力、代码生成和复杂推理方面达到世界顶级开源模型水平,定价仅为海外同级别闭源模型的七分之一左右。V4的发布标志着中国AI开源力量在全球大模型竞争中占据重要地位,同时因其明确支持国产华为昇腾芯片而具有特殊的产业意义。
-
深度求索(DeepSeek)成立于2023年,是一家专注于通用人工智能底层模型与技术研究的中国初创公司。公司总部位于中国,创始人为梁文峰。根据公开信息,DeepSeek在2025年初曾因R1模型的发布而震动美国AI行业,被视为中国AI技术突破的代表性企业。公司基于自研训练框架、自建智算集群和万卡算力资源进行模型训练。2026年4月24日,DeepSeek在成立约三年后发布了备受期待的V4模型,该模型距离上次R1发布恰好一周年。值得注意的是,DeepSeek目前正积极布局物理基础设施,在内蒙古乌兰察布开启大规模智算中心招聘,展现出向产业链上游延伸的战略意图。 在融资方面,虽然具体金额未公开披露,但行业传闻DeepSeek的目标估值已达到200亿美元,这反映了资本市场对其技术实力和商业前景的高度认可。公司在发展过程中始终坚持开源路线,此前的V3和R1模型已在全球开发者社区获得广泛使用,根据OpenRouter的公开统计,这两个模型的Token吞吐量一度占据所有开源模型的一半以上。
-
DeepSeek-V4在技术架构和功能特性上实现了多项突破。首先是超长上下文能力的普惠化,该产品全系标配1M(百万token)超长上下文,相比V3.2的128K实现了8倍的提升。这意味着用户可以直接导入完整代码库、超长行业文档、百万字级别的完整书籍进行端到端处理,大幅简化了长文本处理的技术链路,用户无需额外搭建RAG系统即可实现高效的信息检索和理解。 在模型架构方面,V4-Pro采用总参数1.6T、激活参数49B的MoE(混合专家)架构,预训练数据量达到33T。V4-Flash则采用激活参数13B的轻量化设计,通过全新的token压缩注意力机制与DSA稀疏注意力架构实现了极致低延迟与高性价比。根据DeepSeek官方公布的测试数据,V4-Pro在数学、STEM、竞赛级代码等核心推理测评中超越了所有已公开评测的开源模型,在Agentic Coding测评中达到开源模型最佳水平,交付质量接近Claude Opus 4.6非思考模式。内部测试显示,V4-Pro的使用反馈优于Anthropic Sonnet 4.5,已成为DeepSeek内部员工的主力Agentic Coding工具。 V4还支持非思考模式与思考模式的双模式切换,用户可通过reasoning_effort参数自定义思考强度。产品全量支持Json Output、Tool Calls、对话前缀续写能力,并针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品做了专项适配和优化。在开源与部署方面,模型权重同步在Hugging Face和ModelSpace平台开放下载,完整保留与官方云端API一致的所有能力,无任何功能阉割,同时支持模型微调、量化、推理加速全流程工具链,并完成了vLLM、TGI等主流推理框架及LangChain、LlamaIndex等Agent框架的Day 0原生适配。 接入方式上,用户无需修改原有base_url,仅需将model参数替换为对应版本名称即可。V4兼容OpenAI ChatCompletions和Anthropic两种接口格式,显著降低了迁移成本。值得注意的是,旧API接口(deepseek-chat、deepseek-reasoner)将于2026年7月24日停止使用。
-
DeepSeek-V4采用分层定价策略,提供Pro和Flash两个版本以满足不同用户群体的需求。V4-Flash版本的定价极为亲民:缓存命中输入价格为0.2元/百万tokens,缓存未命中输入价格为1元/百万tokens,输出价格为2元/百万tokens。V4-Pro版本的定价则定位中高端:缓存命中输入价格为1元/百万tokens,缓存未命中输入价格为12元/百万tokens,输出价格为24元/百万tokens。 与海外同级别闭源模型相比,V4的定价具有显著优势。以GPT-5.5为例,其输入价格约为5美元/百万tokens,输出价格约为30美元/百万tokens,而V4-Pro的相应价格仅为12元和24元人民币(约1.7美元和3.4美元),约为GPT-5.5的三分之一到十分之一。这种定价策略延续了DeepSeek一贯的“高性价比”路线,旨在将顶级大模型能力从少数人的工具变成更多人可调用的基础设施。 从商业模式角度看,DeepSeek采用开源免费+云端付费的双轨策略。模型权重开源免费意味着任何人都可以下载并在本地部署,这对于企业和开发者而言具有极大的吸引力。云端API服务则通过按量计费的方式获取收入,这种模式既满足了需要快速接入的商业用户需求,又通过开源建立起了广泛的开发者生态。
-
从社区反馈来看,DeepSeek-V4的发布引发了开发者社区的高度关注。发布首日,知乎单日热度达到5390万,Hacker News获得999个赞,Reddit收获600多个赞,多个平台同时引爆。在技术社区中,开发者对V4的评价整体积极,尤其认可其在长上下文处理、代码生成和性价比方面的表现。 正面评价主要集中在以下几个方面:一是超长上下文能力获得广泛认可,1M上下文标配让开发者无需额外成本即可处理大规模文本任务;二是性价比极具竞争力,Flash版本的价格对于中小型项目而言几乎可以忽略不计;三是开源策略受到好评,完整保留所有功能、无任何阉割的做法体现了DeepSeek对开源社区的诚意;四是API兼容性表现出色,兼容OpenAI和Anthropic两种接口格式大幅降低了迁移成本。 然而也有一些质疑的声音。部分用户关注V4从公布到正式发布历时较长(坊间称其为“跳票”),认为这可能反映出团队在技术研发上面临挑战。此外,作为刚刚发布的新产品,V4在真实生产环境中的稳定性和长期表现仍有待验证。
-
从行业视角来看,DeepSeek-V4的发布具有多重意义。首先,在技术层面,V4证明了开源模型能够在性能上接近甚至比肩顶级闭源模型,这对整个AI行业的技术发展路线产生了重要影响。Replit CEO Amjad Masad等美国开发者高度评价了V4的注意力压缩和长上下文效率提升,认为这代表了当前开源模型的最高水平。 其次,在产业层面,V4明确支持国产华为昇腾芯片,这对中国本土AI芯片生态具有重要意义。MIT Technology Review中国版报道指出,DeepSeek正在构建“统一推理中间件”,目标是重构国产大模型技术栈。如果V4在昇腾芯片上的表现接近NVIDIA GPU,那将是国产AI芯片生态的重大突破。 第三,在市场竞争层面,V4的发布加剧了大模型领域的竞争态势。值得关注的是,V4发布当天恰逢OpenAI发布GPT-5.5,两家公司的旗舰产品形成正面交锋。这不仅是中国开源力量与美国闭源巅峰的技术对决,也预示着未来大模型市场将更加多元化和竞争激烈。 国际媒体方面,The Verge等权威科技媒体对V4给予了积极报道,认为DeepSeek在发布R1一年后再次出手,标志着中国AI企业已经具备在全球舞台上与美国竞争对手正面较量的实力。
-
尽管DeepSeek-V4获得了广泛的市场关注和积极评价,但也面临着一些争议和潜在风险。 在技术争议方面,V4多次延后发布引发了市场对其研发进度的质疑。从最初预期的2025年10月到2026年4月正式发布,间隔长达半年,这在一定程度上影响了市场预期。有分析认为,延后发布可能与团队正在进行的架构升级有关,但也有声音担心这是否意味着技术遇到了瓶颈。 在地缘政治方面,DeepSeek此前曾受到美国方面的关注。据报道,美国官员曾指控DeepSeek使用了被禁止的Nvidia芯片,Anthropic也声称DeepSeek滥用了Claude来改进其自身产品。这些指控虽然尚未得到证实,但可能对DeepSeek的海外市场拓展造成潜在障碍。 在技术风险方面,作为新发布的产品,V4在大规模生产环境中的稳定性和可靠性仍有待验证。此外,随着用户规模增长,如何保持服务质量和服务响应速度将是团队面临的实际挑战。 在商业模式方面,开源策略虽然有助于建立开发者生态,但也意味着直接收入来源相对有限。如何在开源推广和商业变现之间找到平衡,将是DeepSeek需要持续思考的问题。
-
基于DeepSeek-V4的产品特性,以下人群可能会从中获得最大价值。 对于AI开发者和研究人员而言,V4的开源特性、完整的工具链支持以及与主流框架的兼容性使其成为理想的研究平台。1M超长上下文能力特别适合需要进行代码分析、文档处理、学术研究等工作的开发者。 对于初创企业和中小型公司而言,V4-Flash版本提供了极具性价比的选择。其极低的API调用成本和优秀的性能表现,可以帮助资源有限的团队快速接入先进的大模型能力,而无需承担高昂的基础设施成本。 对于需要处理长文档的企业用户而言,V4的1M上下文标配消除了对RAG系统的依赖,可以直接处理完整的书籍、报告、代码库等大规模文本,简化技术架构的同时降低了维护成本。 对于关注数据隐私和安全的企业而言,V4的开源特性允许完全私有化部署,数据无需离开企业自身的服务器,这为对数据安全有严格要求的行业提供了可行方案。 在使用建议方面,需要注意以下几点:一是及时迁移旧API接口,因为旧接口将于2026年7月24日停用;二是根据实际需求选择合适的版本,对于轻量化高频场景可选择Flash版本,对于需要更强推理能力的场景建议选择Pro版本;三是密切关注官方更新,V4作为新产品可能会持续推出优化版本。
-
DeepSeek-V4的发布是中国AI开源力量在全球大模型竞争中的重要里程碑。凭借1M超长上下文、世界顶级的Agent能力和极具竞争力的定价,V4成功将顶级大模型能力从“选配”变为“标配”,推动了AI技术的普惠化进程。其明确支持国产芯片的战略选择,不仅体现了技术自信,也为国产AI芯片生态的发展注入了信心。 从长远来看,V4的成功发布预示着中国AI企业正在从技术跟随者向创新引领者转变。在全球AI竞争日趋激烈的背景下,DeepSeek坚持的开源路线可能会对全球AI技术发展格局产生深远影响。当然,V4作为新品仍需经受市场和时间的检验,其在生产环境中的表现、后续版本的发展以及商业模式的验证都值得持续关注。
用户评论
-
NazárioAlves—Flash版这个价格属实香麻了,0.2元/百万tokens,这价格还要什么自行车。 -
GaryAlvarez_77—终于等到了!1M上下文直接拉满,再也不用费心搞RAG了。 -
KyleEdwards87—实测代码能力确实强,之前用V3写项目经常卡在复杂逻辑上,V4-Pro一次性通过率明显高很多。 -
KathrynGonzales—对比了一下GPT-5.5,DeepSeek V4-Pro的输入价格只有它的三分之一,性价比直接拉爆。 -
KatherineJackson_Pro—说真的等V4等了半年,之前一直跳票还担心是不是凉了,看到发布瞬间放心了。 -
Daniel.Bell_Plus—支持国产芯片这点必须点赞,昇腾适配后国内开发者终于不用看NVIDIA脸色了。 -
trueVladanaPantić_dev—V4-Pro比Flash版贵不少,但是Agent能力确实强一大截,编程任务首选Pro。 -
njnl0ptill—测试了百万token上下文处理能力丢进去一本技术书让它总结,效果惊到我了。 -
Danielle.RobinsonII—开源最良心的是完整保留了所有功能,没有阉割,这波DeepSeek格局打开。 -
David.Johnson_X—API兼容OpenAI和Anthropic两种格式,迁移成本几乎为零,赞。 -
VMartinez_20238—个人开发者狂喜,Flash版价格太友好了,穷鬼专属模型实锤。 -
DAjim—内部员工都在用V4-Pro做Agentic Coding,这波实测反馈确实顶。 -
BarbaraAlvarez_2023—技术架构从英伟达迁移到昇腾,国产AI芯片生态要起来了。 -
Amber_Reed_2024—之前用其他模型处理超长代码库总是丢上下文,V4的1M上下文直接解决痛点。 -
7x1aw60wy—测试了数学推理和竞赛级代码任务,确实超越了所有开源模型,不输闭源顶级模型。 -
mvan575—期待已久的双模式切换终于来了,reasoning_effort参数可以自定义思考强度,灵活度拉满。 -
SatoshiFanHansen—看到知乎热度5390万、Hacker News 999赞,这波发布确实炸场了。 -
Philip_Cooper_202151—vLLM和TGI原生适配,LangChain、LlamaIndex这些框架无缝接入,部署体验好评。 -
蝴蝶_7—唯一担心的是新产品生产环境稳定性,希望后续版本持续优化。 -
Christopher.RussellQ—旧API 7月24日要停用,需要迁移的尽快搞起来了,别等到时候抓瞎。 -
tinypeacock729—之前V3的128K上下文已经够强了,V4直接到1M,8倍提升有点夸张。 -
JudeRichter—和美国闭源模型正面刚不落下风,国产大模型真的站起来了。 -
KyleGutierrez_Max—MoE架构确实高效,1.6T总参数但激活只有49B,推理成本控制得很好。 -
Has_hKing—V4-Pro输出价格24元/百万tokens,对比GPT-5.5的30美元便宜太多了。 -
CryptoKing823—关注数据隐私的企业可以直接私有化部署,数据不用离开自己的服务器,安全感拉满。 -
AlexisMorin_1—做长文档处理的企业用户有福了,1M上下文直接省掉RAG那套复杂架构。 -
张超洋—测试了Claude Code、OpenClaw等主流Agent产品的适配,确实做了专项优化,反馈很丝滑。 -
淡然_1—看到Replit CEO都来点赞V4的注意力压缩技术,这波中国AI确实长脸。 -
CDavis_2022—33T预训练数据量堆出来的效果确实不一样,理解能力明显更强。 -
Helen.WoodQ—灰度测试的时候就已经很香了,正式版更强,终于可以抛弃其他模型了。