一、股权研究公司 Bernstein Research 的报告

中国AI芯片市场份额对比

企业当前市场份额2026年预测市场份额2026年市场排名
华为≈39%50%1
英伟达39%8%-
AMD未明确12%2
寒武纪未明确未明确3(预期)

中国本土AI芯片供需与增长预测

指标2026年预测2028年预测增长趋势
本土供应-需求比例39%104%由短缺到过剩
本土AI芯片销售额CAGR(2025-2028)-74%高速增长
累计销售额增长-93%接近翻倍

二、夹在华为与英伟达之间的生存策略

在中国,处于华为和英伟达夹缝中的企业,不要幻想成为第三个“英伟达”或“华为”,而要定位成:
双生态的“翻译官”和基础设施提供商
把握“异构算力+国产化”这条大趋势,在中游基础设施 + 算力服务化 + 细分场景专精三个方向上做深做厚。

2.1 明晰格局

综合前面信息,可以把 2025–2027 年的中国算力格局简单抽象成:

2.1.1 芯片层是“双极+群雄”

  • 英伟达:凭 CUDA 生态、Rubin/Blackwell 高端 GPU,继续统治全球训练标准,在中国是被限流的高端溢价市场(预计 2026 年在中国 AI 芯片市场掉到约 8% 份额)
  • 华为 Ascend:凭政策+全栈生态(CANN+MindSpore+Atlas 超节点),在中国本土 AI 芯片中有望拿下约 50% 份额
  • 其他国产 GPU/AI 芯片厂(沐曦、摩尔线程、壁仞等):技术快速进步,增速很高,但生态与客户心智尚在培育期

2.1.2 中游基础设施高度共识、强刚性
无论是 NVIDIA Rubin 超节点,还是华为 Ascend 950/Atlas 950 SuperPoD,本质都走向:

  • 单机柜 50–100kW 甚至 100kW+ 的高功率密度
  • 大量 800G / 1.6T 光模块与 CPO 光引擎
  • 必须液冷(冷板/浸没)+ 高密度电源(HVDC 等)才跑得动

换句话说:不管谁赢,服务器、光模块、液冷、电源这些“水电煤”都是刚需。

2.1.3 政策和需求一起推着国产化往前走

  • 报告普遍认为:到 2026 年,本土 AI 芯片整体在中国市场可以达到甚至超过 50% 以上
  • 国家层面推动“算力互联网”“东数西算”“国产化比例不低于 X%”等,算力服务、异构算力调度被写进中长期规划

在这个格局下,“夹缝玩家”基本是三类:

  • 非华为、非英伟达的国产芯片厂商(GPU / NPU / ASIC 等)
  • 为各种芯片提供配套的服务器、光模块、液冷、电源等中游厂商
  • 上层的模型/应用/算力服务企业,需要在不同芯片之间做技术路线选择

2.2 策略:不做“芯片对手”,做“多生态底座”

**技术路线可以多元,商业路线必须单一:
统一走“多生态兼容 + 基础设施刚需 + 服务化变现”这条路。**

具体拆成四条“生存方法”:

方法 1:绝不站队,只做“华为+英伟达+国产”的三边撮合者

  • 目标姿态

    • 对上游:告诉所有芯片厂,“我帮你们补齐生态短板,让你们更容易被市场采用”
    • 对下游客户:告诉大模型公司和政企,“我帮你们把不同芯片统一管理、统一开发、统一运维”
  • 技术抓手

    • 跨硬件的中间件 / 编程框架 / 调度软件:类似中科曙光的 UPTK 通用异构编程工具,帮助开发者一次开发、多平台运行
    • 模型迁移适配层:一套模型可以从 CUDA 平台迁移到 Ascend / 国产 GPU,最大限度重用算子与算力优化
  • 好处

    • 上行对接多家芯片厂,下行服务更多客户,减少对单一生态的锁死依赖
    • 从“被动挨打的配件商”变成“不可缺失的生态翻译官”

方法 2:尽量少靠“卖卡挣钱”,拼命去抓“水电煤”

  • 在芯片价格、毛利、产能都高度不确定的阶段,最确定的其实是:每一颗芯片都离不开的基础设施

    • GPU 再怎么狠,还是要插在服务器上跑;
    • 集群再怎么国产化,还是要靠光模块、光引擎、交换机连起来;
    • 功耗再怎么优化,还是要上液冷 + 高密度电源才压得住温度。
  • 所以策略是:

    • 如果在芯片上是“小角色”,不要幻想靠“硬刚英伟达/华为”赢市场,把资源优先砸在中游配套能力上,或与中游深度绑定;
    • 如果本来就是中游厂商,就要坚定做“华为+英伟达+国产”全家桶的标配件

方法 3:从“卖硬件”转成“卖算力服务 + 能力”

  • 趋势已经非常明确:

    • DeepSeek 的案例显示,通过算法和系统优化,可以大幅降低对“堆卡”的依赖,把算力服务从“毛坯房”做到“拎包入住”
    • 国家超算互联网开始走“算力商品化+平台化”路线,上线了数千款算力商品,实现跨架构调度
  • 对夹缝企业来说,纯硬件模式会被轻易替代,而:

    • 某地区/某行业的算力服务商”(提供 GPU 资源、模型、调优服务)
    • 某种国产芯片上的性能优化专家”(帮客户把某款国产芯片的性能跑到极致)
      这两类角色,更难被挤死,也更容易形成护城河

方法 4:主动扎进“国家工程”和大客户,抢占确定性现金流

  • 在 2025–2028 这轮建设周期里,政府与运营商主导的大型智算中心/超算互联网/东数西算项目,往往都有国产化比例、长期运维合同等要求
  • 对夹缝玩家来说,这类项目是“饭票”

    • 有签约周期长、金额大、回款稳定的优点;
    • 技术和产品一旦在其中被标准化采用,会形成后续项目的复制优势

归纳一句:
要从“给芯片打工的小弟”变成“算力基础设施和服务的标配角色”,让任何一个芯片想在中国市场规模落地,都离不开你


2.3 不同类型企业怎么具体做

2.3.1 国产芯片厂(非华为、非英伟达):差异化+场景化,不去刚正面

现实处境是:

  • 性能短期内很难全面超越英伟达,尤其是 CUDA 生态
  • 生态短期内也难与华为 Ascend 抗衡
  • 但有:国产政策+灵活场景+本土服务

可以考虑的策略:

  • 不要试图“全面对标英伟达”,而是选赛道做到极致

    • 可以专注:

      • 推理解码 + 高并发在线服务(如针对大模型推理优化)
      • 端侧或边缘 AI(车载、工业视觉、机器人)
      • 特定行业场景 ASIC(安防、金融风险控制、智能制造)
    • 让自己从“通用 GPU 厂”变成“某行业场景算力专家
  • 生态策略:紧贴 1–2 家强势云厂 / 大模型公司做共生

    • 主动争取阿里云、百度云、华为云、运营商云甚至国家超算互联网平台的深度联运

      • 先给出“成本+服务”的综合优势
      • 再通过对接其模型、框架(如 PaddlePaddle、MindSpore)形成“一体化解决方案
  • 工具链策略:强推开源 & 兼容

    • 对开发者,要尽量:

      • 对齐 CUDA 体验:兼容主流框架(PyTorch、TensorFlow)、算子库不断补齐
      • 提供成熟的 SDK + 调试工具 + 文档社区
    • 尽早把自己的编译器、算子库等核心组件开源一部分,扩大生态参与度
  1. 商业上要接受“不性感但活得久”的现实

    • 不要只讲“性能故事”和“国产替代口号”,要有:

      • 真实可见的营收增长曲线
      • 以大客户/项目为支点的订单可见性
    • 否则容易陷入“估值高、兑现难”的困境

2.3.2 服务器 / 光模块 / 液冷 / 电源等中游厂商

这类企业的天然优势是:不直接卷芯片,但芯片越多越有活干。

具体策略:

  1. 技术上:一切围绕“兼容 + 高密度 + 低能耗”做迭代

    • 服务器:

      • 支持 x86 + ARM(鲲鹏)+ RISC-V 等多架构
      • 提供适配英伟达/Ascend/国产 GPU 的通用机箱/背板/布线
      • 预留CXL 内存扩展、DPU 加速位,提升异构扩展能力
    • 光模块 / 光引擎:

      • 把 800G / 1.6T 做到极致稳定+成本可控,同时满足英伟达 Rubin/Blackwell 与华为超节点的光口规格
      • 前瞻布局 CPO / Co-Packaged Optics,成为下一代数据中心的“标配供货商”
    • 液冷 / 电源:

      • 跟随机柜功率密度升级路线图(50kW → 100kW → 150kW…),提前研发对应的冷板、换热器和泵站方案
      • 布局 机柜级液冷一体机,打通“服务器+液冷+电源”的整体交付
  2. 商业上:从“卖设备”升级到“参与运营”

    • 例如:

      • 与云厂/运营商/政府合作,参与算力中心整体方案设计与部分运维,收取服务费或能效分成
      • 提出“按功率/按机柜/按算力”租赁或整体解决方案,而不是一次性卖硬件
  3. 生态上:同时拿到华为和英伟达的“入场券”

    • 争取:

      • 成为英伟达 Rubin / Blackwell 平台的合格服务器与光模块供应商
      • 成为华为 Ascend 超节点 / Atlas 集群的长期认证配套厂家
    • 这样一来,无论哪个生态出货多,都能吃到量。

2.3.3 模型 / 软件 / 行业应用 / 算力服务商

在算力成本、生态成熟度、客户偏好三者之间,怎么找到“投入产出比最高”的组合。

建议:

  1. 训练 vs 推理分开选芯片

    • 训练阶段:

      • 如果目标是全球化+前沿模型,优先选择英伟达(CUDA 生态成熟,工具链完善)
      • 如果主要服务国内政企/金融/运营商,且有国产化要求,可使用华为 Ascend 或部分国产 GPU
    • 推理解码阶段:

      • 可以更多采用 华为+国产 GPU/ASIC,尤其是在私有化部署大规模在线服务场景,以降低 TCO
  2. 技术路线:all in “异构调度与优化”

    • 自研或引入异构调度框架:让同一个业务可以动态调度到不同芯片上执行
    • 投入工程力量去做:

      • 算子层优化:针对 Ascend / 国产 GPU 做深度 kernel 调优
      • 模型压缩和量化:FP8/FP4/INT8 等混合精度,减少硬件压力
  3. 行业路线:别跟大厂抢 “通用大模型”,要做“细分垂类模型+场景集成”

    • 例如:

      • 工业视觉 + 预测性维护
      • 金融风控 + 合规审核
      • 医疗影像 + 智能随访
    • 把某个行业做穿透,形成“模型+数据+算力运维”的一体化服务,毛利率和粘性都会更高。

三、总结

  1. 定位上

    • 不要试图成为第三个英伟达或华为
    • 要定位成:多芯片生态的基础设施提供者 + 算力服务商 + 场景化专家
  2. 产品上

    • 往中游去:服务器、光模块、液冷、电源、DPU、交换机等所有芯片都必须依赖的硬件
    • 往上游的软件去:异构调度、中间件、开发工具、行业模型与优化工具
  3. 生态上

    • 绝不单押一方,同时拿下华为、英伟达及其他国产芯片厂的认证与适配
    • 做好“模型从 CUDA 迁到 Ascend/国产 GPU”的迁移工具与服务,降低客户切换成本
  4. 商业上

    • 从“卖设备”向“卖算力+卖效果”转型:算力租赁、代训练、代部署、代运维
    • 优先拿国家级/省级算力工程与运营商项目,构建长期现金流
  5. 路径上

    • 2026–2027 是窗口期,要快速做出能复制的标杆项目和成熟产品
    • 2028 以后,市场会大洗牌,只有卡位基础设施、掌握算力服务、深耕行业场景的企业,会真正活下来并活得好

标签:ai, agent

你的评论