
CPU全线狂飙,最核心6家企业梳理
站在2024年这个时间点回望,如果说AI算力的上半场是GPU的孤军奋战,那么下半场,CPU正以“算力中枢”的身份,重新夺回它在数据中心的话语权。
长期以来,市场形成了一种惯性思维:AI等于GPU,CPU只是负责“递板砖”的辅助角色。但随着大模型参数从千亿迈向万亿,当上下文窗口从万级跨越到百万级,整个算力架构的底层逻辑发生了质变。
一、CPU从“送货员”变成“调度指挥官”
目前,制约大模型性能进一步突破的,已经不再单纯是算力峰值(TFLOPS),而是极其残酷的“显存墙”。为了追求更强的理解能力,长文本处理(Long Context)成了各大厂商角逐的焦。当上下文窗口跨越百万级别时,昂贵的HBM显存就像是市中心的顶级豪宅,即便寸土寸金,也难以承载庞大的KV Cache数据。
这种硬件限制迫使系统架构必须向“内存卸载方案”转向。简单来说,就是把一部分GPU放不下的数据,临时存放到由CPU管理的DDR内存中。CPU凭借其对廉价、大容量DDR5内存的高效调度能力,成为了显存之外不可或缺的动态缓冲池。
不仅如此,多模态数据的爆发,让数据结构变得极其复杂。在这些图像、视频、音频数据被喂进GPU进行高强度矩阵运算之前,必须经过实时的编解码与特征对齐。这就像工厂流水线,GPU是负责精细加工的机器,而CPU则是负责原料分拣、粗加工和物流调配的控制枢纽。没有CPU的高效预处理,再强的GPU也只能空转。
我们认为,CPU正从过去的辅助角色,转型为存算一体的控制核心,其在AI链路中的战略地位将迎来根本性的重估。
二、Agent推高CPU的逻辑底座价值
如果说Transformer架构让模型有了“直觉”,那么强化学习(RL)的引入,则让模型有了“逻辑”。
这是大模型进化的关键分水岭,也正是CPU展现统治力的主战场。
在强化学习的训练过程中,系统需要同时运行策略模型、参考模型、奖励模型等多个模块。这里面涉及极其复杂的梯度聚合与参数同步,每一秒钟都要进行海量的跨节点通信协调,这些“细活”全靠CPU来打理。
更重要的是,随着AI向具有自主规划能力的Agent(智能体)演进,工作流发生了剧变。未来的AI不再只是写一首诗,而是要通过API调用工具、编排工作流、进行长程的逻辑推理。这些任务并非计算密集型,而是典型的逻辑密集型任务。
GPU擅长“暴力计算”,但面对复杂的“if-else”逻辑判别、环境交互与非线性的工具调用,CPU的架构优势无可替代。随着Agent应用的普及,AI任务中非计算部分的占比将飙升,这必然带动CPU需求量的快速增长。我们观察到,算力集群中CPU与GPU的配比正在发生微妙变化,CPU的权重有望稳步提升。
三、被低估的涨价持续性
从供应链的视角看,CPU正处于一场“供需错配”的风暴中心。
目前的先进制程产能是极其稀缺的。苹果的A系列、M系列芯片,以及英伟达统治级的H系列、B系列GPU,几乎锁死了台积电等一线代工厂的先进制程及CoWoS封装的主要产能。这种强力“挤占”效应,导致高性能服务器CPU的产能受到显著限制。
当需求因AI架构演进而激增,而供给侧又遭遇产能瓶颈时,价格上涨成了唯一的调节手段。根据IT之家的最新监测,AI算力需求的倒灌已经引发了AMD、英特尔等巨头的产品调价。
今年3月,消费级CPU价格已普遍上涨5%至10%,而更具刚需属性的服务器CPU,涨幅更是达到了10%至20%。
目前市场普遍认为这只是短期的波动,但我们认为,三季度CPU将迎来新一轮更强劲的涨价潮。
因为随着万亿参数模型的落地,全球范围内对高带宽、高性能CPU的需求才刚刚开始释放。这种供给受限倒逼价值中枢上移的过程,其持续性将远超市场预期。
核心概念梳理:
1. 海光信息:国内高性能CPU领军者,兼容X86生态,深度受益于服务器国产化与AI算力需求双增。
2. 龙芯中科:坚持自主指令集LoongArch,在工控及特定安全领域具有极高的技术护城河。
3. 中国长城:背靠中国电子,在国产整机与高端服务器领域布局深厚,是国产CPU应用的重要阵地。
4. 禾盛新材:在上游材料端提供关键支持,受益于算力硬件整体需求的放量。
5. 品高股份:深耕云操作系统与资源调度,是CPU与GPU异构计算环境下,“算力调配”的关键软件力量。
6. 卓易信息:全球领先的BIOS和BMC固件供应商,作为CPU启动与运行的核心底层支撑,具有极强的稀缺性。
免责声明:以上内容仅供参考,不作为投资建议
近期热点发掘文章:
格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。


