摘要:野村证券最新研报释放了一个强烈信号:专用集成电路(ASIC)正成为云巨头下一波算力竞赛的核心武器。截至2025年,英伟达在AI服务器价值层面的占比仍高达80%以上,而ASIC仅占8%–11%。乍看之下差距巨大,但如果从“片数”而非“金额”来衡量,天平已在摆动。谷歌TPU与AWS Trainium 2在2025年的合计出货量预计可达300万片,已相当于英伟达AI GPU出货量的40%–60%。关键拐
野村证券最新研报释放了一个强烈信号:专用集成电路(ASIC)正成为云巨头下一波算力竞赛的核心武器。截至2025年,英伟达在AI服务器价值层面的占比仍高达80%以上,而ASIC仅占8%–11%。乍看之下差距巨大,但如果从“片数”而非“金额”来衡量,天平已在摆动。谷歌TPU与AWS Trainium 2在2025年的合计出货量预计可达300万片,已相当于英伟达AI GPU出货量的40%–60%。
关键拐点很可能出现在2026年。届时,Meta自研ASIC项目MTIA将正式放量,目标年出货100万–150万片;微软也计划在2027年大规模部署自研方案。研报给出判断:全球ASIC年出货量有望在2026年的某个时间段首次超越英伟达GPU。换言之,从“价值主导”到“数量领先”,AI服务器市场的座次或将迎来历史性重排。
Meta MTIA:后来者却剑指王座
在所有ASIC项目中,最受关注的是Meta的MTIA。首颗芯片T-V1计划于2025年第四季度交付,采用36层高规格PCB并配合液冷+空冷混合散热,由博通负责设计,Celestica与Quanta承担整机组装。更具想象力的是T-V1.5,它将在2026年中问世,芯片面积直接翻倍,计算密度对标英伟达下一代GPU Rubin,而2027年的T-V2甚至将引入170千瓦超大功率机架。Meta的目标很清晰:让自家Llama模型训练体系完全运行在自研芯片之上,摆脱对英伟达GPU的重度依赖。
然而,ASIC大扩产并非没有隐忧。当前可分配的CoWoS封装晶圆仅能支撑30万–40万片产能,远低于Meta理想中的百万片规模。更大尺寸封装也意味着更高良率风险,整机系统调试周期可长达6–9个月。如果Meta与AWS、谷歌在同一时间段集中拉货,高端ABF载板、HBM3E、液冷组件等关键物料极易短缺,推高整体成本并可能拖慢量产节奏。
英伟达的反击
面对“去GPU化”趋势,英伟达已在2025 COMPUTEX抛出NVLink Fusion:首次开放自家互连协议,允许第三方CPU或xPU与英伟达GPU无缝对接。看似“对外让利”,实则在稳固GPU在异构架构中的核心地位。加之英伟达在计算密度、互连带宽、以及CUDA生态上的深厚积累,短期内ASIC难以弥补性能与软件工具链的差距。
但需要注意的是,随着谷歌、AWS等自研方案的整体成本更可控,英伟达的高利润率可能在未来数年被迫调降。研报提示,若大型CSP进一步压缩预算,英伟达需通过更快的产品迭代和灵活的定价来守住市场份额。
行业展望:从一极到多极
综上所述,2025–2026年将是GPU与ASIC双线并行的过渡期;2027年后,GPU、CSP定制ASIC以及CPU/GPU/xPU融合架构将形成三足鼎立。真正的决定性时刻,是ASIC出货量在2026年首次反超GPU时,资本市场如何重新给算力龙头定价——届时,性能、生态与成本的多重叠加,才会揭示谁能坐稳新王座。
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任