混合专家模型(MoE)已从技术验证进入规模化落地阶段,成为大模型降本增效的核心路径
OpenAI被曝GPT-4采用1.8万亿参数MoE架构,首次将MoE推向主流视野
国内首个MoE大模型abab6,激活参数仅37B却对标GPT-3.5
盘古Ultra MoE(7180亿参数),全流程昇腾训练,打破GPU依赖
字节开源COMET技术,MoE训练成本降40%;腾讯混元开源80B参数MoE模型
盘古5.5升级7180亿MoE深度思考模型,昇腾CloudMatrix超节点实现35K tokens/s推理
MoE已从"技术验证"进入"规模化落地"阶段,成为大模型降本增效的核心路径
算力瓶颈倒逼架构创新——通过稀疏激活实现参数规模与计算成本的脱钩
2025年将成为MoE商业化元年,国产芯片+开源生态将重塑全球AI算力格局
2024Q2以来,12篇头部研报将MoE列为"大模型降本唯一路径"(华泰/东吴/安信)
| 时间 | 事件 | 影响逻辑 |
|---|---|---|
| 2025Q3 | 华为昇腾910C发布 | 支持FP8精度MoE训练,成本再降30% |
| 2025Q3 | 腾讯混元MoE开源 | 推动中小厂商采用,加速生态扩散 |
| 2025Q4 | 字节跳动UltraMem架构落地 | 推理成本降83%,冲击API定价体系 |
MoE成为大模型标配(类似Transformer),国产芯片+开源框架主导中低端市场
异构MoE(动态专家数量)+LPU专用芯片成熟,单位算力成本降至当前10%
上游:算力芯片
昇腾910B
寒武纪MLU370
中游:MoE框架
华为盘古MoE
腾讯混元MoE
下游:应用场景
政务AI
社交AI
| 公司 | 技术路线 | 进展验证 | 风险点 |
|---|---|---|---|
| 华为 | 昇腾+盘古Ultra MoE | CloudMatrix超节点35K tokens/s | 生态封闭,外部适配慢 |
| 腾讯 | 混元80B MoE开源 | 魔搭社区首发,开发者超1600万 | 商业化场景待验证 |
| 字节 | COMET优化+UltraMem | 训练成本降40%(已开源) | 与英伟达生态竞争 |
| DeepSeek | MLA+MoE | 236B模型激活21B(开源) | 依赖海外芯片 |
当前处于"技术红利兑现期",类似2020年光伏PERC电池——成本曲线陡峭下降+渗透率快速提升
国产算力芯片(昇腾/寒武纪)+ MoE框架服务商(华为云/腾讯云)
交换机厂商(瑞斯康达/共进股份)——MoE推动800G光模块需求
边缘端MoE(云天励飞1.8B模型)——未被定价的"AI PC"场景
2025Q3若达30万片/季度,将确认国产替代拐点
若月活超5000万,标志开源生态爆发
若低于0.5元/百万tokens,将触发行业洗牌
MoE不是主题炒作,而是AI算力革命的"单晶时刻"。
2025年Q3前是布局窗口期,优先配置国产算力链+MoE框架龙头。
| 股票名称 | 项目 | 技术/产品 | 应用领域/合作方 | 投资逻辑 |
|---|---|---|---|---|
| 云天励飞 | 边缘端硬件在线微调学习 | MoE大模型、1.8B轻量化模型 | 边缘计算 | 公司通过能力蒸馏研发的1.8B模型和MoE大模型,边缘应用性能优于同参数模型,支持大模型在边缘设备落地 |
| 东方通 | 深度安全大模型 | MoE混合专家模型、LLM+AI Agent框架 | 网络安全 | 基于MoE架构的深度安全大模型,在LLM+AI Agent框架下快速部署AI安全能力 |
| 汤姆猫 | AI情感陪伴机器人 | MOE混合专家架构 | 西湖心辰、豆包、DeepSeek | AI情感陪伴机器人采用MOE架构,整合西湖心辰定制模型及豆包、DeepSeek等模型能力,提升产品性能 |
| 瑞斯康达 | AI大模型降本 | 三层交换机、数据中心交换机、OLT | 通信设备 | MOE技术推动AI大模型降本,公司发布多款交换机产品迎接发展机遇 |
| 共进股份 | AI大模型降本 | 园区交换机、SMB交换机 | 企业网络 | MOE技术推动AI大模型降本,公司交换机产品覆盖园区和中小企业市场 |