AI Infra:2026年如何在华为和英伟达的夹缝中生存
一、股权研究公司 Bernstein Research 的报告
中国AI芯片市场份额对比
| 企业 | 当前市场份额 | 2026年预测市场份额 | 2026年市场排名 |
|---|---|---|---|
| 华为 | ≈39% | 50% | 1 |
| 英伟达 | 39% | 8% | - |
| AMD | 未明确 | 12% | 2 |
| 寒武纪 | 未明确 | 未明确 | 3(预期) |
中国本土AI芯片供需与增长预测
| 指标 | 2026年预测 | 2028年预测 | 增长趋势 |
|---|---|---|---|
| 本土供应-需求比例 | 39% | 104% | 由短缺到过剩 |
| 本土AI芯片销售额CAGR(2025-2028) | - | 74% | 高速增长 |
| 累计销售额增长 | - | 93% | 接近翻倍 |
二、夹在华为与英伟达之间的生存策略
在中国,处于华为和英伟达夹缝中的企业,不要幻想成为第三个“英伟达”或“华为”,而要定位成:
双生态的“翻译官”和基础设施提供商,
把握“异构算力+国产化”这条大趋势,在中游基础设施 + 算力服务化 + 细分场景专精三个方向上做深做厚。
2.1 明晰格局
综合前面信息,可以把 2025–2027 年的中国算力格局简单抽象成:
2.1.1 芯片层是“双极+群雄”
- 英伟达:凭 CUDA 生态、Rubin/Blackwell 高端 GPU,继续统治全球训练标准,在中国是被限流的高端溢价市场(预计 2026 年在中国 AI 芯片市场掉到约 8% 份额)
- 华为 Ascend:凭政策+全栈生态(CANN+MindSpore+Atlas 超节点),在中国本土 AI 芯片中有望拿下约 50% 份额
- 其他国产 GPU/AI 芯片厂(沐曦、摩尔线程、壁仞等):技术快速进步,增速很高,但生态与客户心智尚在培育期
2.1.2 中游基础设施高度共识、强刚性
无论是 NVIDIA Rubin 超节点,还是华为 Ascend 950/Atlas 950 SuperPoD,本质都走向:
- 单机柜 50–100kW 甚至 100kW+ 的高功率密度
- 大量 800G / 1.6T 光模块与 CPO 光引擎
- 必须液冷(冷板/浸没)+ 高密度电源(HVDC 等)才跑得动
换句话说:不管谁赢,服务器、光模块、液冷、电源这些“水电煤”都是刚需。
2.1.3 政策和需求一起推着国产化往前走
- 报告普遍认为:到 2026 年,本土 AI 芯片整体在中国市场可以达到甚至超过 50% 以上
- 国家层面推动“算力互联网”“东数西算”“国产化比例不低于 X%”等,算力服务、异构算力调度被写进中长期规划
在这个格局下,“夹缝玩家”基本是三类:
- 非华为、非英伟达的国产芯片厂商(GPU / NPU / ASIC 等)
- 为各种芯片提供配套的服务器、光模块、液冷、电源等中游厂商
- 上层的模型/应用/算力服务企业,需要在不同芯片之间做技术路线选择
2.2 策略:不做“芯片对手”,做“多生态底座”
**技术路线可以多元,商业路线必须单一:
统一走“多生态兼容 + 基础设施刚需 + 服务化变现”这条路。**
具体拆成四条“生存方法”:
方法 1:绝不站队,只做“华为+英伟达+国产”的三边撮合者
目标姿态:
- 对上游:告诉所有芯片厂,“我帮你们补齐生态短板,让你们更容易被市场采用”
- 对下游客户:告诉大模型公司和政企,“我帮你们把不同芯片统一管理、统一开发、统一运维”
技术抓手:
- 做 跨硬件的中间件 / 编程框架 / 调度软件:类似中科曙光的 UPTK 通用异构编程工具,帮助开发者一次开发、多平台运行
- 做 模型迁移适配层:一套模型可以从 CUDA 平台迁移到 Ascend / 国产 GPU,最大限度重用算子与算力优化
好处:
- 上行对接多家芯片厂,下行服务更多客户,减少对单一生态的锁死依赖
- 从“被动挨打的配件商”变成“不可缺失的生态翻译官”
方法 2:尽量少靠“卖卡挣钱”,拼命去抓“水电煤”
在芯片价格、毛利、产能都高度不确定的阶段,最确定的其实是:每一颗芯片都离不开的基础设施:
- GPU 再怎么狠,还是要插在服务器上跑;
- 集群再怎么国产化,还是要靠光模块、光引擎、交换机连起来;
- 功耗再怎么优化,还是要上液冷 + 高密度电源才压得住温度。
所以策略是:
- 如果在芯片上是“小角色”,不要幻想靠“硬刚英伟达/华为”赢市场,把资源优先砸在中游配套能力上,或与中游深度绑定;
- 如果本来就是中游厂商,就要坚定做“华为+英伟达+国产”全家桶的标配件。
方法 3:从“卖硬件”转成“卖算力服务 + 能力”
趋势已经非常明确:
- DeepSeek 的案例显示,通过算法和系统优化,可以大幅降低对“堆卡”的依赖,把算力服务从“毛坯房”做到“拎包入住”
- 国家超算互联网开始走“算力商品化+平台化”路线,上线了数千款算力商品,实现跨架构调度
对夹缝企业来说,纯硬件模式会被轻易替代,而:
- “某地区/某行业的算力服务商”(提供 GPU 资源、模型、调优服务)
- “某种国产芯片上的性能优化专家”(帮客户把某款国产芯片的性能跑到极致)
这两类角色,更难被挤死,也更容易形成护城河。
方法 4:主动扎进“国家工程”和大客户,抢占确定性现金流
- 在 2025–2028 这轮建设周期里,政府与运营商主导的大型智算中心/超算互联网/东数西算项目,往往都有国产化比例、长期运维合同等要求
对夹缝玩家来说,这类项目是“饭票”:
- 有签约周期长、金额大、回款稳定的优点;
- 技术和产品一旦在其中被标准化采用,会形成后续项目的复制优势。
归纳一句:
要从“给芯片打工的小弟”变成“算力基础设施和服务的标配角色”,让任何一个芯片想在中国市场规模落地,都离不开你。
2.3 不同类型企业怎么具体做
2.3.1 国产芯片厂(非华为、非英伟达):差异化+场景化,不去刚正面
现实处境是:
- 性能短期内很难全面超越英伟达,尤其是 CUDA 生态
- 生态短期内也难与华为 Ascend 抗衡
- 但有:国产政策+灵活场景+本土服务
可以考虑的策略:
不要试图“全面对标英伟达”,而是选赛道做到极致
可以专注:
- 推理解码 + 高并发在线服务(如针对大模型推理优化)
- 端侧或边缘 AI(车载、工业视觉、机器人)
- 特定行业场景 ASIC(安防、金融风险控制、智能制造)
- 让自己从“通用 GPU 厂”变成“某行业场景算力专家”
生态策略:紧贴 1–2 家强势云厂 / 大模型公司做共生
主动争取阿里云、百度云、华为云、运营商云甚至国家超算互联网平台的深度联运:
- 先给出“成本+服务”的综合优势
- 再通过对接其模型、框架(如 PaddlePaddle、MindSpore)形成“一体化解决方案”
工具链策略:强推开源 & 兼容
对开发者,要尽量:
- 对齐 CUDA 体验:兼容主流框架(PyTorch、TensorFlow)、算子库不断补齐
- 提供成熟的 SDK + 调试工具 + 文档社区
- 尽早把自己的编译器、算子库等核心组件开源一部分,扩大生态参与度
商业上要接受“不性感但活得久”的现实
不要只讲“性能故事”和“国产替代口号”,要有:
- 真实可见的营收增长曲线
- 以大客户/项目为支点的订单可见性
- 否则容易陷入“估值高、兑现难”的困境
2.3.2 服务器 / 光模块 / 液冷 / 电源等中游厂商
这类企业的天然优势是:不直接卷芯片,但芯片越多越有活干。
具体策略:
技术上:一切围绕“兼容 + 高密度 + 低能耗”做迭代
服务器:
- 支持 x86 + ARM(鲲鹏)+ RISC-V 等多架构
- 提供适配英伟达/Ascend/国产 GPU 的通用机箱/背板/布线
- 预留CXL 内存扩展、DPU 加速位,提升异构扩展能力
光模块 / 光引擎:
- 把 800G / 1.6T 做到极致稳定+成本可控,同时满足英伟达 Rubin/Blackwell 与华为超节点的光口规格
- 前瞻布局 CPO / Co-Packaged Optics,成为下一代数据中心的“标配供货商”
液冷 / 电源:
- 跟随机柜功率密度升级路线图(50kW → 100kW → 150kW…),提前研发对应的冷板、换热器和泵站方案
- 布局 机柜级液冷一体机,打通“服务器+液冷+电源”的整体交付
商业上:从“卖设备”升级到“参与运营”
例如:
- 与云厂/运营商/政府合作,参与算力中心整体方案设计与部分运维,收取服务费或能效分成
- 提出“按功率/按机柜/按算力”租赁或整体解决方案,而不是一次性卖硬件
生态上:同时拿到华为和英伟达的“入场券”
争取:
- 成为英伟达 Rubin / Blackwell 平台的合格服务器与光模块供应商
- 成为华为 Ascend 超节点 / Atlas 集群的长期认证配套厂家
- 这样一来,无论哪个生态出货多,都能吃到量。
2.3.3 模型 / 软件 / 行业应用 / 算力服务商
在算力成本、生态成熟度、客户偏好三者之间,怎么找到“投入产出比最高”的组合。
建议:
训练 vs 推理分开选芯片
训练阶段:
- 如果目标是全球化+前沿模型,优先选择英伟达(CUDA 生态成熟,工具链完善)
- 如果主要服务国内政企/金融/运营商,且有国产化要求,可使用华为 Ascend 或部分国产 GPU
推理解码阶段:
- 可以更多采用 华为+国产 GPU/ASIC,尤其是在私有化部署和大规模在线服务场景,以降低 TCO
技术路线:all in “异构调度与优化”
- 自研或引入异构调度框架:让同一个业务可以动态调度到不同芯片上执行
投入工程力量去做:
- 算子层优化:针对 Ascend / 国产 GPU 做深度 kernel 调优
- 模型压缩和量化:FP8/FP4/INT8 等混合精度,减少硬件压力
行业路线:别跟大厂抢 “通用大模型”,要做“细分垂类模型+场景集成”
例如:
- 工业视觉 + 预测性维护
- 金融风控 + 合规审核
- 医疗影像 + 智能随访
- 把某个行业做穿透,形成“模型+数据+算力运维”的一体化服务,毛利率和粘性都会更高。
三、总结
定位上:
- 不要试图成为第三个英伟达或华为
- 要定位成:多芯片生态的基础设施提供者 + 算力服务商 + 场景化专家
产品上:
- 往中游去:服务器、光模块、液冷、电源、DPU、交换机等所有芯片都必须依赖的硬件
- 往上游的软件去:异构调度、中间件、开发工具、行业模型与优化工具
生态上:
- 绝不单押一方,同时拿下华为、英伟达及其他国产芯片厂的认证与适配
- 做好“模型从 CUDA 迁到 Ascend/国产 GPU”的迁移工具与服务,降低客户切换成本
商业上:
- 从“卖设备”向“卖算力+卖效果”转型:算力租赁、代训练、代部署、代运维
- 优先拿国家级/省级算力工程与运营商项目,构建长期现金流
路径上:
- 2026–2027 是窗口期,要快速做出能复制的标杆项目和成熟产品
- 2028 以后,市场会大洗牌,只有卡位基础设施、掌握算力服务、深耕行业场景的企业,会真正活下来并活得好