在人工智能大模型高算力需求推动下,HBM(高频宽存储器)成为存储厂商布局的重点。近日英伟达宣布推出的新一代图形处理器,搭载了HBM3e内存,带来容量、带宽和性能的全面升级,也令SK海力士、三星、美光公司等供应商纷纷加大HBM产能。

  集邦咨询分析师汝合媛向《证券日报》记者表示:“高端人工智能服务器的图形处理器搭载HBM已经逐步成为主流,2023年全球搭载HBM总容量将达2.9亿GB,同比增长近六成。”

  而中国电子商务专家服务中心副主任郭涛告诉《证券日报》记者:“已有多家A股上市公司在HBM领域布局,随着算力需求的持续增长,预计会有更多的公司加入HBM领域的竞争中。”

  HBM有望大规模商用

  HBM属于DRAM(动态随机存取存储器)中的一个类别,通过将多个存储器堆叠在一起,形成高带宽、高容量、低功耗等优势,突破了内存容量与带宽瓶颈。

  HBM受到了存储巨头的高度重视。自2013年SK海力士首次成功研发HBM以来,三星、美光等存储巨头也纷纷入局,展开了HBM的升级竞赛,从第一代HBM开始,逐步迭代到第四代HBM3、第五代HBM3e。

  今年以来,人工智能大模型兴起,HBM成为当前人工智能服务器图形处理器存储单元的主流解决方案。中国信息协会常务理事、国研新经济研究院创始院长朱克力在接受《证券日报》记者采访时表示:“从技术演进看,HBM技术从首次提出到现在已经历了多代发展,技术不断进步,尽管在实际应用中还面临成本、良率、可靠性等层面的挑战,HBM的带宽、容量和能效等关键指标却均在持续提升。HBM作为一种高性能的存储器技术,有望在未来几年迎来大规模商用。”

  汝合媛表示:“从竞争格局来看,HBM目前主要由SK海力士、三星与美光公司供应,其中SK海力士具有一定领先优势,三星、美光公司正在加速追赶。从规格上看,HBM主流将在2024年移转至HBM3与HBM3e。”

  海量算力需求为HBM带来广阔的市场空间。汝合媛分析:“如果以全球范围内产生5款ChatGPT这类超大型生成式人工智能产品、25款中型生成式人工智能产品以及80款小型生成式人工智能产品估算,至少需要14.56万颗至23.37万颗A100图形处理器。”

  上市公司前瞻布局

  当下,HBM成为存储大厂“兵家必争之地”,产业链上下游企业在HBM领域的布局受到关注。在投资者互动平台上,近日多家上市公司被密集追问HBM领域的业务情况。

  上游材料企业联瑞新材在投资者互动平台表示:“HBM是提高存储芯片间互通能力的重要解决方案。这种方案会带来堆叠层数提升、散热需求大的技术难题,同时对封装材料要求越来越高,对粉体颗粒及性能要求也越来越高。对添加的超细粉体材料,需要用到TOPCUT20um以下的Lowα球硅和Lowα球铝产品。公司部分封装材料客户是全球知名企业,公司已配套并批量供应了Lowα球硅和Lowα球铝产品。”

  芯片设计企业国芯科技表示:“公司目前已与合作伙伴一起正在基于先进工艺开展流片验证相关chiplet芯片高性能互联IP技术工作,和上下游合作厂家积极开展包括HBM技术在内的高端芯片封装合作。”

  概伦电子也表示:“公司在存储器、模拟和混合信号等定制类电路的芯片设计领域,掌握了部分具备国际领先能力的核心技术,获得了众多全球领先半导体企业包括存储器头部企业的量产应用,据了解,公司的EDA工具可被部分客户用于HBM相关的设计制造环节。”

  “HBM会在人工智能应用驱动下成为数据中心内存的重要发展方向,预计HBM与其他存储器产品将遵循经济效率的原则长期共存、互为补充。”佰维存储相关负责人向《证券日报》记者表示:“公司一直关注着HBM等存储新技术的发展,以及对内存测试技术演进的影响。目前公司正在筹备的先进封装项目,涵盖了Bump、TSV等HBM所需的封装基础工艺技术。”

  朱克力表示:“目前,全球范围内的半导体大厂纷纷布局HBM技术,一些初创公司正在涌现。在这种背景下,拥有自主研发能力和技术优势的公司将更具竞争力。从生态系统建设来看,HBM的普及和应用不仅需要存储器本身的技术进步,还需要与处理器、互连等其他组件的协同优化。因此,构建一个完整的HBM生态系统将是未来发展的重要方向。”