
DeepSeek-V4上线:国产大模型软硬件协同
这是苍穹猎鹰第430篇演化日记
DeepSeek-V4上线:国产大模型软硬件协同
本文仅为小编观点分享,文中列举的数据与逻辑仅用于分析说明,不构成任何决策建议。
4月24日,也就是上周五,DeepSeek悄无声息地放出一个大招——DeepSeek-V4预览版正式上线并同步开源。
这次DeepSeek-V4发布了两个版本:一个是DeepSeek-V4-Pro,另一个是DeepSeek-V4-Flash,简单理解为一个旗舰版、一个轻量版即可。
自从去年DeepSeek横空出世,这家公司就与国内AI发展的宏大叙事绑定在一起。但自去年年初放出一个大招后,它便鲜有露面。
面对坊间的各种质疑、传闻与谣言——“DeepSeek是不是已经被超越”“梁文峰到底在干什么?”,DeepSeek官方始终未回应半句。这样的定力,在当下喧嚣纷杂的AI圈,堪称一股清流。
关于这次新模型的性能,毋庸置疑是出色的。
DeepSeek官方公众号文章中,放出了一张全球顶级AI大模型的能力对比图,从七个维度将DeepSeek与当前最顶尖的三大模型进行对比,这三个模型分别是Claude Opus 4.6、GPT-5.4和Gemini 3.1 Pro。
对比成绩究竟如何?我们用数据说话。
这次比较共涵盖七个维度,相当于一个学生考了七门学科,DeepSeek拿下了2个第一、3个第二、1个第三和1个第四。作为一款免费开源模型,这样的成绩已然惊艳,相当于能与全球顶尖高手打得不相上下。
要知道,这三大模型目前是全球闭源模型中的顶尖存在,其月订阅费用,最便宜的为20美元,最贵的高达200美元。而DeepSeek不仅开源免费,且才刚刚完成与国产硬件的适配,就能取得这样的成绩,着实不易。
关于DeepSeek新模型性能的讨论,网上已有不少声音,这里不再赘述,主要谈谈这次新模型发布背后的4点思考。
1/4
沉默发力:不喧哗,自有声
不知从什么时候起,科技界的新品发布会变得越来越娱乐化、流量化。各大媒体争相报道、明星大腕云集,各大巨头都在声嘶力竭地为自家产品造势。
但DeepSeek却是个例外,发布如此重大、具有里程碑意义的模型,竟然悄无声息——没有镁光灯、没有媒体扎堆、没有明星站台,仅在官方微信公众号低调发布。
更难得的是,DeepSeek官方公众号文章的末尾,还附上了一句:“不诱于誉,不恐于诽,率道而行,端然正己。” 这句话出自荀子,用大白话说就是:夸我的我不飘,骂我的我不怕,只管走自己认准的路。
这在浮躁的AI圈尤为难得,专注于技术优化,对外部的各种声音一概不理,颇有儒家“讷于言而敏于行”的气度。
2/4
性价比为王:以低价破局AI赛道
极致性价比,一直都是DeepSeek的核心优势,这次也不例外。先看官方公布的定价:
DeepSeek-V4-Flash,输入价格0.2元/百万Token,输出2元/百万Token; DeepSeek-V4-Pro,输入1元/百万Token,输出24元/百万Token。
如果大家对这个价格没有概念,对比一下就一目了然。以同等水平的国外闭源模型Claude Opus 4.6为例,其输入价格为5美元/百万Token,输出25美元/百万Token——注意,这里的单位是美元。
综合算下来,Claude Opus 4.6的API调用成本起码是DeepSeek-V4的十几倍!这堪称AI领域的“农村包围城市”策略:以低价优势,打破高端闭源模型的垄断。
尤其在企业端,在性能没有显著差别的前提下,DeepSeek的成本仅为对手的十分之一,就连硅谷的各大巨头,都不得不感叹国内大模型“真香”。
根据全球最大AI模型API聚合平台OpenRouter2月份的数据,中国大模型调用量首次反超美国——这背后,离不开高性价比开源模型的推动。
3/4
国产适配:黄仁勋的担忧已成现实
黄仁勋于2026年4月15日接受了知名科技播客主持人帕特尔(Dwarkesh Patel)的深度专访,访谈中,老黄说了一句分量极重的话:“如果DeepSeek的新模型在华为平台上首发,那对西大来说将是可怕的一天。”
而DeepSeek官方文章中的一行小字,透露老黄的担忧已经成为现实。这句话明确写道:“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下降。”
这句话藏着两个关键信息:一是DeepSeek-V4-Pro的调用价格还会大幅下降;二是DeepSeek-V4已经成功适配昇腾芯片。
AI领域有一个默认的规则,不管你的算法多么先进,模型参数有多么出众,你都得运行在英伟达的CUDA生态上。
而DeepSeek-V4则彻底改写这个规则,将模型迁移到华为的CANN生态——这背后,是无数资深开发者的加班加点、成千上万行代码的重写与优化。
DeepSeek 甘愿承担技术迭代掉队、沦为二线模型的风险,全力为国内 AI 算力体系重构核心底座。
其背后战略价值,懂的都懂。尤其这份勇气和决心,更令人敬佩。
诚然,短期内CANN还无法撼动CUDA生态的主导地位,但这次适配,已然开启了国产大模型与国产硬件协同发展的新征程。
4/4
开源未来:普通人也能“手搓”应用
观察国内外两大顶级大模型阵营,不难发现它们走出了两条截然相反的道路:国外顶尖模型多走闭源路线,价格高昂,仅服务于硅谷、华尔街等精英阶层。
而以DeepSeek为代表的国内模型,则主打开源路线,凭借高性价比,让普通大众甚至退休大爷大妈都有机会尝试使用大模型。
这里用大白话解释下闭源与开源的区别:闭源就像别人做好的黑盒子,你只能花钱租用,无权改造,还可能面临随时被停用、数据泄露的风险;开源则是把“配方”公开,你可以自由下载、自行部署、随意修改,还能离线使用,安全性和自主性拉满。
当开源大模型变得像水电一样普及的基础设施,像积木一样可以随意拼接、改造,未来就有可能在某个不起眼的小城镇,某个天才编程少年或代码发烧友,仅凭一台二手笔记本电脑,借助廉价的开源大模型,“手搓”出一件出乎意料的“神兵利器”。
这,或许就是开源廉价模型最核心的意义——打破技术垄断,让AI惠及每一个人。
本文仅为小编观点分享,文中列举的数据与逻辑仅用于分析说明,不构成任何决策建议。
参考资料:
DeepSeek《DeepSeek-V4预览版:迈入百万上下文普惠时代》
快刀青衣《关于DeepSeek最新V4模型,普通人可以知道的6件事》
卢克文《DeepSeek-V4问世,中美AI竞争的格局要变了》
· END·
格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。


