从GTC看AI芯片格局:英伟达失宠,ASIC厂商崛起 GTC大会后:AI芯片通用与定制类生态共拓市场

本文聚焦于英伟达GTC大会后市场的反应,以及AI芯片领域的竞争态势。详细分析了英伟达股价未因大会热捧、国内相关指数下跌的原因,同时阐述了ASIC芯片厂商博通和Marvell的业绩表现、技术研发及生态部署情况,还提及了英伟达在通用AI芯片方面的广泛布局,最后探讨了定制类与通用AI芯片生态的发展思路以及未来看点。

在当今科技飞速发展的21世纪,人工智能领域成为了全球瞩目的焦点。英伟达举办的GTC大会,如今已然被视作“AI界风向标”。公司创始人兼CEO黄仁勋在大会现场的演讲,意义非凡,不仅阐释了英伟达自身的发展脉络,更如同照亮前行道路的明灯,透视出AI产业未来的发展风向。

然而,今年的GTC大会却没有像以往那样引发市场对英伟达股票的热捧。大会当天,由于美股整体受挫,美系AI芯片厂商的股价集体下挫。尽管在GTC的第二天,美系AI芯片厂商的股价都有所回升,但令人意外的是,英伟达的股价涨幅甚至不如其“挑战者”——ASIC芯片龙头博通和Marvell。

把目光转向国内A股市场,截至3月20日收盘,Wind统计的“英伟达产业链指数”已经连续两天下跌。

从GTC看AI芯片格局:英伟达失宠,ASIC厂商崛起 GTC大会后:AI芯片通用与定制类生态共拓市场

这一现象背后有着多方面的原因。一方面,市场此前对GTC释放的内容抱有过高的期望值,但实际情况却事与愿违。英伟达在大会上展示的是其既定规划路径下的全面AI生态布局思路,这与市场的高预期存在一定差距。另一方面,前不久发布财报的定制芯片ASIC大厂博通和Marvell,的确在持续获得来自云服务大厂的订单,而且客户名单还在不断增加。

回顾本次GTC大会,黄仁勋着重强调,英伟达已经不再仅仅是一家计算机技术公司,而是成功转型成为AI基础设施提供商。无独有偶,ASIC芯片的两家公司博通和Marvell也有类似的举措。在AI大潮的推动下,它们提供ASIC定制芯片设计服务,帮助那些不太具备AI芯片设计能力的云服务厂商进行个性化芯片设计,同时还不断丰富通信、带宽等能力。

随着市场需求的差异化日益明显,技术路线也变得愈发复杂,AI芯片巨头之间的竞争已经集体走向生态化竞争。

特别是随着AI大模型定制化推理需求的激增,头部科技公司正积极探索在一定程度上摆脱对通用芯片的依赖,转而投向定制化XPU(异构计算单元)的开发。在这个过程中,博通与Marvell作为重要的ASIC芯片设计服务商,成为了核心受益者。

博通近日发布的2025财年第一财季报告显示,其期内AI收入同比增长77%,达到41亿美元,超出了此前38亿美元的收入预期。博通公司总裁兼首席执行官陈福阳(Hock Tan)表示,预计第二财季的AI芯片收入将继续保持44亿美元的良好势头,因为超大规模合作伙伴将继续加大对AI XPU和AI数据中心连接解决方案的投资。

Marvell刚发布的2025财年第四财季报告同样表现出色。数据显示,其数据中心业务营收同比增长78%、环比增长24%,达到13.66亿美元,占公司总营收的75%。Marvell董事长兼首席执行官Matt Murphy表示:“第四季度业绩的增长得益于数据中心市场的增长,同时多个终端市场业务也在持续复苏。公司的定制化AI芯片计划现已进入量产阶段,此外还看到互连产品市场呈现出良好的增长态势。Marvell获得了多项新的design wins(客户设计订单),包括几项定制化芯片项目,这些都将推动公司未来的增长。预计2026财年第一季度收入同比增长将超过60%,整个财年收入将实现大幅增长。”此前,Marvell公司预估数据中心市场总量(TAM)将达750亿美元,但从目前的发展趋势来看,这一数据可能会更高,其中很大一部分增长就来自于定制化芯片业务。

两家ASIC芯片巨头的优异业绩,清晰地显示出以谷歌、微软、亚马逊、Meta为代表的云服务厂商(CSP)正持续针对特殊场景,加大研发定制化AI加速器芯片的力度。这一趋势也引发了ASIC服务商之间的持续技术竞赛。

据透露,博通在两个方面加大了研发投资。其一,推动打造下一代加速器,公司正在进行业界首个2nm AI XPU、3.5D封装的流片,目标是打造出性能达到10000万亿次浮点运算的XPU。其二,着眼于为超大规模客户扩展50万个加速器的集群规模。博通着重提到了其定制化客户池在持续扩容的现状。陈福阳介绍,目前公司有三个超大规模客户各自计划在2027年底前将集群规模提升到100万个XPU,彼此之间也在展开激烈的竞争。预计这三个超大规模客户将在2027财年带来600亿至900亿美元的可服务潜在市场(SAM)。此外,博通还在与另外两个超大规模数据中心客户深入合作,帮助他们打造自己定制的人工智能加速器ASIC,计划在今年内完成他们的XPU流片;还有另外两个超大规模数据中心客户选择博通来开发定制加速器,以训练他们的下一代前沿模型——也就是说,目前还有四个潜在大客户在与博通进行业务洽谈,而这些并未被包含在前述SAM的估算中。陈福阳认为,这些超大规模数据中心客户(主要指CSP)在软件能力方面表现出色,但博通具备硬件优势,因此二者携手合作才能更好地优化大语言模型。

在AI时代,不止于对XPU计算类芯片的研发和设计,数据传输和信息交换效率也是至关重要的需求。因此可以看到,博通和Marvell这两家ASIC厂商都在强调对旗下围绕XPU延伸开的生态部署进展,而且这两家厂商早期也都在研发通信芯片方面具有较强的实力。博通方面提到,为了使人工智能集群能够通过以太网扩展到100万个XPU,已经完成下一代100太比特TB(terabit)Tomahawk 6交换机芯片的开发。陈福阳指出,新的前沿模型和技术给人工智能系统带来了意想不到的压力,很难用单一的系统设计来满足所有模型集群的需求。因此,采用XPU的发展趋势将会持续多年。Marvell高管也提到,最终要在解决方案中获得超大的性能提升,就必须将计算芯片与网络和连接技术结合起来。“此外,定制化高带宽内存对我们来说仍然是一项关键的知识产权,我们目前正与主要内存合作伙伴、超大规模数据中心客户合作。”在刚结束的财季,Marvell光电器件产品和Teralynx以太网交换机出货量强劲,这两条产品线的营收环比均实现了两位数的百分比增长。

从通用AI芯片的角度来看,英伟达的部署更为广泛。通用类GPGPU的落地通常需要考虑更高的可适配性,这也是英伟达很早就开始布局CUDA生态和NVLink连接能力的原因所在。当然,随着公司定位的演进,在此次GTC期间,英伟达除了迭代旗下AI系列芯片之外,还发布了CPO交换机,面向终端市场推出桌面端超级计算机DGX Spark等产品;对于Physical AI领域,英伟达还积极与各类机器人厂商和智能驾驶厂商合作。黄仁勋表示:“AI工厂是一种超大规模的新型数据中心,必须采用全新的网络基础设施才能跟上它的发展步伐。NVIDIA将硅光直接集成到交换机中,打破了超大规模和企业网络的旧有限制,为百万GPU AI工厂打开大门。”此外,英伟达还推出了两款由NVIDIA Omniverse和Cosmos平台提供支持的新蓝图,为开发者提供用于机器人和自动驾驶汽车后训练的大规模可控合成数据生成引擎。

进入AI加速发展时期,定制类AI芯片和通用AI芯片生态之间,目前看来更像是在共同秉持“做大AI市场蛋糕”的发展思路。一方面,云服务厂商与英伟达合作,加速完善AI训练的基础设施能力;另一方面,云服务厂商选择与ASIC芯片服务商合作,期望加强各自在细分优势领域(如搜索、社交、推荐等)的AI能力。此前业绩会上,AMD首席执行官苏姿丰也认为,ASIC芯片目前市场份额不算大,但公司也在该领域有所布局,以提供给有需要的合作伙伴。

而顺着算力硬件持续迭代的趋势,围绕于此强化通信能力、存储能力,强化算力世界“铁三角”,成为当前这些计算芯片厂商的共性。只是随着AI大模型持续向后迭代,进入Agentic(代理)时期甚至更后期,如何持续强化软硬件AI计算服务能力、甚至将角色定位向后延伸,也将成为下一个重要看点。

本文围绕英伟达GTC大会后市场反应及AI芯片竞争态势展开。英伟达大会未引发股价热捧,国内相关指数下跌,反映出市场预期与实际情况的差距。博通和Marvell等ASIC芯片厂商凭借定制化服务获得订单,业绩出色,引发技术竞赛并加强生态部署。英伟达在通用AI芯片领域布局广泛。当前定制类与通用AI芯片生态共同拓展市场,未来如何强化AI计算服务能力及延伸角色定位值得关注。

原创文章,作者:Isaiah,如若转载,请注明出处:https://www.qihaozhang.com/archives/2215.html

(0)
IsaiahIsaiah
上一篇 2025年3月20日
下一篇 2025年3月20日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注