核心洞察 (Insight)
0. 概念事件 & 核心观点
ASIC概念近期迅速升温,核心背景是全球AI算力需求从“训练”大规模转向“推理”。这一结构性变迁构成了ASIC崛起的根本驱动力。博通(Broadcom)财报的持续超预期(FY24 AI营收122亿美元, 同比+220%)和云巨头(CSP)的加速自研,引爆了市场认知。ASIC正从服务于少数巨头的“定制化”选项,演变为AI算力基础设施的“第二增长极”。其核心驱动力源于大规模推理应用下,云厂商对极致成本效益和供应链自主可控的追求。当前,海外市场已进入业绩兑现期,而国内市场则处于国产替代和生态构建的关键起步阶段。
1. 核心逻辑与市场认知
- 经济账:极致的成本效益追求。 这是最硬的逻辑。大厂自研ASIC成本较外购GPU低30%-50%。技术上,ASIC通过裁剪非必需的高精度计算单元,并采用脉动阵列等专用架构,实现了远高于GPU的能效比(谷歌TPU v5能效比是H200的1.46倍)。
- 战略账:摆脱“NVIDIA依赖”与构建生态护城河。 云厂商自研ASIC,一方面确保供应链稳定和议价能力,另一方面通过软硬件深度协同(如Google的TensorFlow+TPU),构建封闭但高效的自有生态,形成差异化竞争优势。
- 技术账:推理范式转移的必然选择。 推理任务算法相对收敛、请求并发量高,这正是ASIC“为特定任务而生”的优势所在。牧本定律(Makimoto's Wave)预示着,在算法趋于成熟的当下,钟摆正从通用的GPU摆向定制的ASIC。
预期差分析:
市场对ASIC的宏大叙事感到兴奋,但可能忽略了不同厂商间的进度差异(微软/Meta仍需2-3年迭代),以及高昂的研发成本(国内一代产品投入约32亿元)和技术风险(算法快速迭代可能导致专用芯片失效)等高不确定性因素。
2. 关键催化剂与发展路径
- 近期催化剂 (3-6个月): 博通/Marvell的财报验证、云厂商2025年资本支出计划、国内项目(字节/阿里)的流片或量产消息。
- 长期发展路径:
- 第一阶段 (当前-2025): 双雄引领(Google/Amazon),生态初建。博通/Marvell业绩持续释放。供应链开始向ASIC倾斜(台积电CoWoS产能分配比例从7:3调至6:4)。
- 第二阶段 (2026-2027): 百花齐放,技术深化。微软/Meta及国内厂商规模化商用。制程进入3nm/2nm时代。价值量向上游IP/EDA和下游先进封装、液冷、高速互联扩散。
- 第三阶段 (2028+): 生态成熟,格局稳定。ASIC成为超大规模数据中心标配,与GPU形成功能互补、长期共存的格局。
3. 潜在风险与挑战
- 算法迭代风险: 若未来出现颠覆性模型架构,为现有算法定制的ASIC可能面临淘汰风险。
- 高昂研发成本: 国内自研一代ASIC需投入约32亿元,回本周期长,门槛极高。
- 供应链安全: 高度依赖台积电等先进工艺代工,面临地缘政治和美国潜在的4nm/5nm制程禁令。
- 需求波动: 云厂商资本开支具有周期性,若宏观经济下行或AI应用落地不及预期,将影响采购计划。
市场趋势与规模预测
JPM: 2025年达300亿美元,年增长率超30%。
大摩: 2027年达300亿美元。
Marvell: 2028年市场规模达940亿美元 (上调26%)。
Broadcom: FY2027年SAM有望达600-900亿美元。
主要参与者动态
- Broadcom (AVGO): 绝对领导者 (55-70%市占率)。拿下Google, Meta, Bytedance等多家订单,指引2025年AI sales达150-200亿美金。
- Marvell (MRVL): 有力追赶者 (15-25%市占率)。深度绑定Amazon和Microsoft,获得2nm ASIC设计订单,预计下一财年AI收入25亿美金。
- Google: TPU是ASIC先驱。TPU v7 (3nm)将于2026年量产。苹果、OpenAI均租用其TPU算力。
- Amazon (AWS): Trainium芯片加速迭代,2025年计划使用超100万颗ASIC。
- Meta: MTIA芯片持续迭代,v3 (HBM版) 即将出货,v4已规划多芯片封装方案。机架功率达170kW,推动液冷需求。
- Deepseek: 将携手国内厂商入局ASIC,打通AI算力+大模型自主可控,绕过CUDA。
- 芯原股份: 国产ASIC龙头。拥有领先的IP+ASIC能力,与阿里、字节等项目进展积极。Q2新签订单超7亿元,环比增长700%。
- 翱捷科技: ASIC业务布局早,已为商汤、快手设计ASIC,与阿里深度合作。
- 其他厂商: 华为昇腾、寒武纪、燧原科技等产品均基于ASIC架构,有望在推理领域加速追赶。
ASIC vs. GPU 对比
| 维度 | ASIC | GPU |
|---|---|---|
| 成本 | 单位算力成本低30-50% | 单卡成本高昂 |
| 能效比 | 优势显著,功耗低 | 能效较低,功耗高 |
| 生态 | 以太网,相对开放 | NVLink, 依赖CUDA生态 |
| 应用场景 | 推理为主,逐步切入训练 | 训练与推理通用 |
| 灵活性 | 低,为特定算法设计 | 高,适配算法快速迭代 |
技术趋势与供应链影响
技术趋势
- PD分离架构: 将推理任务拆分为Prefill和Decode,适配不同芯片,提升效率。
- 超节点 (Hypernode): 通过高带宽互联形成统一计算体,支持万卡级扩展。
- 工艺节点: 3nm项目成为主流,2nm已在规划中(Amazon Trainium4)。
供应链价值重估
- 先进封装: TSMC CoWoS产能紧张,ASIC分配比例提升。
- 液冷散热: ASIC机柜功耗大幅提升(Meta 170kW),液冷渗透率加速。
- 高速互联: 价值量向数通设备转移,铜连接、AEC等需求显著放量。
- 高端PCB: ASIC爆发加剧高端PCB产能紧张,景气度超预期,26年规模有望翻倍。