零克云MaaS平台上线DeepSeek V4 系列模型!开箱即用!

发布时间:2026-04-28 16:11:32
阅读量: 287

被广大网友称为“国产之光”的 DeepSeek V4 正式发布之后,零克云 MaaS 模型市场第一时间上线 DeepSeek V4 系列模型。

零克云已完成 DeepSeek V4-Pro 与 V4-Flash 双版本的全链路原生适配,完整兼容 1M 超长上下文、双运行模式、思考强度调节等全部核心能力。模型可无缝集成至 OpenClaw、Hermes 等主流 Agent,为开发者与企业用户提供开箱即用的 AI 能力。

截至目前,零克云已上线超过100款热门模型,覆盖DeepSeek、通义千问全系列、Llama等主流大语言模型,以及Wan2.2、Z-Image-Turbo、GLM-5等多模态生成模型,持续为用户提供最新的前沿 AI 技术能力矩阵。

这次DeepSeek V4 模型分成V4-Pro和V4-Flash 两个版本,V4-Pro 是旗舰版本,重点还是 Agent 和代码能力。在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。在世界知识测评中,大幅领先其他开源模型。

V4-Flash 是一个更轻、更快、也更便宜的版本。推理能力和 Pro 没有完全拉开,简单任务上已经够用了,这个产品分层其实挺合理的,就是把「最好」和「最划算」分开给。

Agent 能力专项优化,编程能力跃升

DeepSeek V4在开源Agent能力、世界知识和推理性能上大幅提升,从实测来看,V4-Pro 已在 DeepSeek 内部作为 Agentic Coding 工具日常使用,用起来比 Sonnet 4.5 顺手,交付质量接近 Opus 4.6 非思考模式,和 Opus 4.6 思考模式相比还有差距。

官方内部 R&D 编程基准测试,约 200 个来自 50 余位工程师的真实工作任务里,V4-Pro-Max 的 Pass Rate 是 67%,Sonnet 4.5 是 47%,Opus 4.5 Thinking 是 73%,Opus 4.6 Thinking 是 80%。

同时,DeepSeek-V4 针对Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品完成了专项适配与优化,在代码开发、文档生成等任务中表现均有显著提升。

双版本支持百万上下文处理,效率提速

此前,量产可用的百万token上下文还是谷歌Gemini的标配。其他主流模型,大多支持12万到20万token。

DeepSeek V4的Pro和Flash两个版本,均支持百万字超长上下文处理能力,相当于什么呢?一次性把三体三部曲或者几十万行代码全都扔给他,他能像读一页纸一样,瞬间就能理解,并且找到细节,而且还是一个开源模型。

如果你手里有几百页的合同、财务报告、法律文件,直接传进去,让它帮你找关键条款、总结核心内容。以前这件事要花你几个小时,现在只需要几秒钟。

同时,模型开创了全新的注意力机制,在 token 维度进行压缩,结合自研 DSA 稀疏注意力 (DeepSeek Sparse Attention) 技术,实现了全球领先的长上下文能力,同时相比于传统方法大幅降低了对计算和显存的需求。

总的来看,V4-Pro在世界知识、数学和编码任务中已超越所有开源模型,仅在部分指标上略低于谷歌Gemini 3.1-Pro。Hugging Face下载量迅速破百万,大量开发者已将接口切换至V4,就是冲着原生百万长上下文和极致性价比而来。

V4-Flash则在保持高性能的同时,进一步压低延迟和成本,成为中小企业和轻量应用的首选。


(责任编辑:张斌)

商业观察网-《商业观察》杂志社官网版权与免责声明:

① 凡本网注明“来源:商业观察网或《商业观察》杂志”的所有作品,版权均属于商业观察网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:商业观察网”。违反上述声明者,本网将追究其相关法律责任。

② 凡本网注明“来源:XXX(非商业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。