2026年AI应用由训练端扩散至推理端,全球记忆体架构正出现明显分流,业界指出,爱普(6531)以VHM(超高频宽行动记忆体)技术,提供不同于传统HBM的高频宽记忆体解决方案,锁定高效能推理与特定AI应用场景,被视为少数能切入推理端高效能需求的台系业者之一。
爱普强调,VHM产品线目前营收以专案开发(NRE)为主,过去已在矿机市场验证技术成熟度,未来将扩展至AI与伺服器等主流应用,并推进多层堆叠架构(VHM Stack),预计2027年至2028年间进入量产,届时可望成为公司另一成长引擎。
业界指出,AI晶片效能瓶颈已不仅来自算力,而是记忆体子系统的存取延迟与频宽配置,在大型语言模型(LLM)推理场景中,资料需频繁往返运算核心,传统DRAM与高频宽记忆体(HBM)虽具高频宽,但延迟仍限制即时反应效能,SRAM具备低于1奈秒的存取延迟,成为推理端关键的「极速缓冲层」,相关需求快速放大。
供应链分析,以辉达来说,透过导入高密度片上SRAM架构,优化推理晶片的即时运算效率;HBM则持续扮演训练端高吞吐量资料中枢角色,以HBM3E为例,单颗价格维持高档,且产能已被主要 AI 客户提前锁定,显示HBM在训练市场的地位仍难以撼动。
在上述分工明确化的背景下,台湾供应链于先进制程与异质整合上的优势浮现。台积电掌握CoWoS先进封装与先进制程,支撑HBM与逻辑晶片整合;记忆体与利基型解决方案业者,则积极切入推理端高效能应用。
其中,爱普以VHM(超高频宽行动记忆体)技术,提供不同于主流HBM的设计路线。
业界认为,VHM透过特殊架构设计,在特定应用下可提供超越传统HBM的频宽效能,并兼顾功耗与封装弹性,锁定高效能推理与边缘 AI等利基市场,而非正面竞逐大型训练平台。
如没特殊注明,文章均来源于互联网,版权归原创作者所有,如有侵权,请联系我们处理!

