AI模型规模与应用场景不断扩大,以更高效率、更低能耗提供稳定算力,成为云端业者与科技巨头的共同课题。为特定工作量量身打造的ASIC,凭借高度客制化与系统协同设计优势,正成为AI基础建设中不可或缺的关键角色。在这波趋势下,台湾IC设计产业的战略地位显著提升。
本周三出刊的《先探投资周刊》2390期就要来跟大家聊起一个新的概念,目前的AI算力市场正处于一个微妙的转折点,特别是全球云端服务龙头如谷歌、亚马逊、Meta及微软,虽然仍是辉达的最大客户,但内心却充满了被绑架的集体焦虑;简单来说,对这些巨头而言,GPU的能力固然强大,但在特定的自家开发大型语言模型运算下,通用型晶片的能耗与成本未必最优。这时候ASIC的崛起,正是这场去算力革命运动的关键!
在生成式AI引爆全球科技竞赛之后,算力已成为攸关国家战略、产业主导权与企业生死存亡的核心军备。从ChatGPT掀起第一波浪潮,到各国政府、科技巨头竞相投入大型语言模型(LLM)与加速运算架构,随著投入金额与能源消耗快速攀升,市场也意识到,真正决定AI效能上限与成本结构的,并非单纯堆叠通用型GPU,而是能否打造「为特定工作量而生」的专用晶片。ASIC(特殊应用积体电路)正是在这场算力决战中,市场正著眼的焦点所在。
ASIC重塑算力版图
ASIC的核心在于以高度客制化的硬体设计,换取远高于通用晶片的效能功耗比与长期成本优势。不同于GPU的广泛适用性,从架构设计阶段即深度绑定目标工作负载,能精准配置运算单元、记忆体层级与资料通道,最大程度降低无效运算与能源浪费,这使ASIC在大规模、长时间运行的AI训练与推论场景中,能显著拉开与GPU的成本差距。因而成为云端服务商(CSP)与大型科技公司在追求极致能效比与总拥有成本(TCO)优化下的必然选择。
根据研究机构Counterpoint Research报告指出,预计到二七年,全球伺服器专用AI伺服器运算ASIC出货量将比二四年成长三倍;另外,预计到二八年,全球资料中心AI伺服器运算ASIC晶片的出货量将突破一五○○万颗,超过资料中心GPU的出货量。这一爆炸性成长的背后,是对Google TPU基础设施的强劲需求、AWS Trainium丛集的持续扩展,以及Meta和微软随著其内部晶片产品组合的扩展而带来的产能提升。
目前Google的TPU v7e已进入关键量产阶段,而微软的Maia系列与Meta的MTIA也已在云端机房大规模部署,预期至二七年将出现具规模的出货量成长。而在这样的生态转变中,台湾的ASIC业者在此一价值链中的角色,已从过去被动承接设计委托的「代工设计」,转型为深度参与架构定义与系统最佳化的系统协同设计(Co-design)核心伙伴。对于高度复杂、投资金额动辄数亿美元的AI ASIC专案而言,能否在早期即完成软硬体协同设计,往往决定了专案的成败,而这正是台湾业者长期累积的关键能力所在。
联发科冲刺ASIC成新火车头
放眼全球ASIC产业格局,博通长期被视为云端AI ASIC的首选供应商,凭借其完整的IP组合、先进制程经验与和CSP的深厚合作关系,占据领先地位。然而,Counterpoint Research指出,博通正面临来自新兴阵营日益升高的竞争压力,其中,由Google与联发科形成的策略联盟,已成为最受瞩目的挑战者之一。
联发科长期深耕行动通讯市场,累积了庞大的IP库,特别是在高速传输介面(SerDes)、先进制程SoC整合与低功耗架构设计上的深厚底蕴,正好切中云端服务商在打造AI ASIC时的核心需求。对云端业者而言,新一代AI ASIC必须同时整合高速互连、电源管理、封装与散热设计的系统级解决方案,联发科凭借其在先进制程节点的实作经验,能在维持高效能的同时,协助客户将功耗与能耗效率优化至极限。
本文完整报导、发烧个股动态,以及更多第一手台股投资讯息,请见先探投资周刊2390期。
如没特殊注明,文章均来源于互联网,版权归原创作者所有,如有侵权,请联系我们处理!

