同花顺 Logo
AIME助手
问财助手
SRAM 想抢 HBM 的饭碗?英伟达黄仁勋:应用于 AI 芯片容量瓶颈是硬伤中性
2026-01-08 13:36:15
来源:IT之家
分享
文章提及标的
英伟达--
Benchmark--
周期--

IT之家1月8日消息,科技媒体Tom"s Hardware今天(1月8日)发布博文,报道称在CES2026展会期间的问答环节,英伟达(NVDA)首席执行官黄仁勋针对“是否用更廉价的SRAM取代昂贵的HBM”这一行业热点进行了回应。

IT之家注:SRAM全称为Static Random Access Memory,直译为静态随机存取存储器,是高速小容量的静态缓存,基于触发器,速度极快但成本高、密度低;HBM是超高带宽、大容量的3D堆叠式主存(基于DRAM),通过垂直堆叠实现超高带宽,功耗低、容量大,主要用于AI/GPU,两者定位不同,SRAM是片上缓存,HBM是系统级高带宽内存,共同服务AI算力需求。

AI行业当前正积极寻找降低成本的途径。随着SRAM加速器、GDDR推理方案以及开放权重模型的兴起,业界出现了一种声音,认为这些低成本方案可以缓解对英伟达(NVDA)昂贵组件的依赖。

特别是在基准测试(Benchmark(BHE))和受控演示中,SRAM凭借极高的访问速度和无延迟特性,展现出了诱人的性能优势,甚至被视为HBM的潜在替代者。

黄仁勋并未否认SRAM的速度优势。他直言:“对于某些特定工作负载,SRAM快得惊人。”然而,一旦进入生产级AI系统,SRAM的优势便会因容量瓶颈而崩塌。

黄仁勋指出,SRAM的容量增长速度远跟不上现代模型的需求,其可容纳的模型规模仅为HBM系统的百分之一。在模型因上下文增加或功能扩展而溢出SRAM时,系统被迫调用外部内存,导致效率优势瞬间消失。

黄仁勋进一步剖析了AI工作负载的不可预测性。现代AI模型形态各异,包含混合专家模型(MOE)、多模态任务、扩散模型及自回归模型等。

这些架构对硬件的压力点截然不同:有的依赖显存容量,有的依赖互连带宽(NVLink),且需求时刻在变。如果硬件针对某一特定模式(如纯SRAM)过度优化,一旦工作负载发生变化,昂贵的芯片就会闲置。

基于此,英伟达(NVDA)坚持选择HBM路线。黄仁勋认为,在共享数据中心中,灵活性是决定经济效益的关键。即使某种专用硬件在5%-10%的任务中表现极致,但如果无法处理其余90%的通用任务,就会造成巨大的资源浪费。

相比之下,HBM方案虽然物料成本更高,但能适应不断变化的算法和模型架构,确保硬件在数周甚至数月的运营周期(883436)内保持高利用率。

针对“开放模型是否会削弱英伟达(NVDA)壁垒”的提问,黄仁勋表示,开放并不意味着降低基础设施要求。随着开放模型整合更长的上下文和更多模态,其内存占用同样会激增。

英伟达(NVDA)愿意承担高昂的HBM成本和复杂的系统设计,正是为了保留“可选性”(Optionality),既防止客户被锁定在狭窄的性能范围内,也保护自身硬件免受模型架构快速迭代的冲击。

免责声明:风险提示:本文内容仅供参考,不代表同花顺观点。同花顺各类信息服务基于人工智能算法,如有出入请以证监会指定上市公司信息披露平台为准。如有投资者据此操作,风险自担,同花顺对此不承担任何责任。
homeBack返回首页
不良信息举报与个人信息保护咨询专线:10100571涉企侵权举报

浙江同花顺互联信息技术有限公司版权所有

网站备案号:浙ICP备18032105号
证券投资咨询服务提供:浙江同花顺云软件有限公司 (中国证监会核发证书编号:ZX0050)
AIME
举报举报
反馈反馈