随著AI应用迈向推论与落地,算力需求转向低成本、高效率,带动云端服务商加速导入ASIC,世芯KY、创意迎接成长动能。
【文/吴旻蓁】
AI持续成为二六年资本市场的核心焦点,几乎已是板上钉钉之事。从美国科技巨头积极攻城掠地、上修资本支出,到全球半导体供应链对AI订单能见度的共识等,都让市场早已认定AI应用是一条正在持续拓展的长期成长曲线。
在这样的前提下,资本市场自然不断寻找下一层可享有结构变化的投资目标。而随著大语言模型(LLM)快速迈向推理(Inference)与应用阶段、AI算力需求从云端向下渗透至边缘设备,市场也预期特殊应用晶片(ASIC)将在下一代AI伺服器架构中扮演更加关键的角色。
相较于过去两年围绕著GPU产能与算力规模的讨论,在AI推论逐渐成为算力需求主流的过程中,能否以更低成本、更高效率被大规模部署成为市场重点讨论议题之一,这正是ASIC渗透率开始加速提升的关键背景。
CSP加速ASIC自研
因不同于模型训练需要高度弹性与通用性的算力架构,推论工作负载具有高度重复、可预测且长时间运行的特性,只要模型与服务流程确立,相关运算路径便相对固定。
在这样的条件下,针对特定运算模式量身打造的ASIC,反而能在效能功耗比、单位推论成本与整体持有成本(TCO)上展现明显优势,成为云端服务商与大型平台压低AI营运成本的重要工具。
再者,各大CSP厂也期待透过自研ASIC来降低对辉达GPU的依赖。近期,Google所推出、以自家TPU训练的Gemini 3 Pro模型大受好评,也带动市场对ASIC市场前景的抱持乐观期待;而Google与博通携手合作开发的TPU v7,预计二六年将逐步放量,甚至传出Meta可能开始租用Google Cloud TPU。
市调机构预估Google TPU出货量今年可望年增逾四○%;另外,法人指出,Google TPU二六年将迈入第八代,预期第三季开始量产,规模有望在二七年达五○○万颗,二八年进一步提高至七○○万颗,较先前大幅上修。
根据研究机构TrendForce预测,以AI伺服器总量的成长率来看,CSP自研的ASIC类别在二六年成长率将达四四.六%,超越GPU的十六.一%。另外,根据产业预估,全球AI晶片需求将从二五年的一○○○万颗,成长至二七年的一七○○万颗,其中ASIC的渗透率将由三八%提升至四五%,在在都显示在未来的AI算力增量中,ASIC将扮演关键角色。
放眼国际市场,通讯晶片巨头博通(Broadcom)在云端客制化AI晶片(XPU)与高阶交换器、光通讯产品上的布局,正好切中CSP在推论阶段对低延迟、高频宽与能源效率的核心需求。
随著AI推论流量持续放大,资料中心内部与跨机柜的网路架构重要性同步提升,也使博通能够以系统级方案深化与云端客户的合作关系。
专家表示,由于ASIC的效益需搭配资料中心网路架构同步优化,故相关产品不再是单点销售,而是以整体解决方案形式与客户深度合作,进一步提升营收黏著度。
博通、迈威尔领军
分析师近来纷纷调升博通评等与目标价,法人解释,过去市场将博通视为稳健的通讯与软体股,但近期华尔街将其重新定位为「AI核心持股」,因其在AI伺服器领域获得大额订单,特别是特别是乙太网路交换器与客制化运算晶片。
博通自二二年开始以双主轴转型策略为核心,除强化AI晶片业务,与Google、Meta、ByteDance等大型云端平台合作开发XPU外,另一方面则透过并购VMware进军基础设施软体市场,进一步提升高毛利收入来源。(全文未完)
全文及图表请见《先探投资周刊2386期精彩当期内文转载》
◎封面故事:强势高价股 底蕴大外显
◎特别企划:人形机器人放量 制造延伸维保
◎国际趋势:日本铁娘子拚政绩搏命演出
◎中港直击:SpaceX 中国王牌供应链
如没特殊注明,文章均来源于互联网,版权归原创作者所有,如有侵权,请联系我们处理!


