Rambus宣布推出全新的SOCAMM2(SmallOutlineCompressionAttachedMemoryModule,小型轮廓压缩附加内存模块)芯片组,旨在为AI服务器平台提供基于LPDDR5X的低功耗高性能内存模块支持。
b$kCyOg ~l~ai>/ SOCAMM2是Rambus围绕LPDDR技术打造的服务器内存模块产品路线图中的首款芯片组,体现了该公司与产业伙伴在新型内存架构上的持续合作,以适配不断演进的AI数据中心工作负载需求。这一全新产品家族补充并扩展了Rambus现有的内存接口芯片布局,使其覆盖所有符合JEDEC标准的DDR5与LPDDR5内存模块。
Fh u(u
LEoL6ga Rambus指出,AI推动下的数据中心工作负载正在迅速多样化和扩张,系统设计因此愈发强调针对性优化,包括功耗效率、算力密度、形态尺寸以及内存可扩展性等关键指标。基于LPDDR技术的SOCAMM2内存模块,正成为应对这些挑战的一种创新架构路径:在模块化、可维护且节省板级空间的封装形态下,实现高性能与低功耗的结合。
Suixk'- ^Jb=&u$ 新发布的RambusSOCAMM2芯片组,旨在为符合JEDEC标准的SOCAMM2服务器内存模块提供关键的控制、遥测(telemetry)以及电源管理等功能,以支撑在高要求AI服务器环境中的稳定运行。Rambus内存接口芯片事业部高级副总裁兼总经理RamiSethi表示,AI系统架构正在快速演进,内存已成为性能、能效与可扩展性的核心支撑要素之一。他称,SOCAMM2标志着在下一代AI服务器中引入模块化、低功耗且高性能内存的重要一步,这一芯片组也是基于LPDDR的服务器模块芯片家族的起点,Rambus正在积极开发下一代解决方案,以支撑未来AI基础设施的演进。
\K+LKa) <QGf9{m 存储厂商也将SOCAMM2视作AI服务器内存生态的重要方向。Micron云端内存产品事业部副总裁兼总经理PraveenVaidyanathan表示,SOCAMM2是实现高效、可扩展、面向CPU连接的下一代AI服务器内存的关键一步。他指出,在AI不断冲击算力与功耗上限的背景下,产业迫切需要围绕LPDDR级别服务器内存建立完善的生态。Rambus推出的这一高度集成芯片组,有助于推动SOCAMM2在未来AI系统设计中的普及与演进。
eJ+V!K'H2 /
lh3.\| 市场研究机构IDC记忆体半导体副总裁SooKyoumKim则认为,随着AI工作负载持续挑战数据中心在功耗、带宽与密度方面的极限,SOCAMM2等内存架构代表了在性能与能效之间寻求平衡的重要演进方向。他强调,像Rambus这样的生态参与者所做的贡献,对推动基于LPDDR的内存真正渗透进AI服务器领域至关重要。
5`oVyxJ< a $pxt!6 在具体形态上,SOCAMM2替代了传统焊接在主板上的LPDDR内存方案,以可插拔、可升级的模块设计,兼顾LPDDR的高能效与数据中心级可维护性。Rambus的LPDDR5XSOCAMM2芯片组可支持LPDDR架构服务器内存模块在最高9.6Gb/s速率下实现可靠且节能的运行,芯片组集成的功能包括:用于模块识别、配置与遥测的SPDHub,以及本地高效电源转换的12安培与3安培电压调节模块(VR)。
Yb8o`j+t iV5x-G` 据介绍,Rambus此次发布的SOCAMM2芯片组,旨在为AI数据中心日益精细化、差异化的内存需求提供一个面向未来的模块化基础,为后续更高带宽、更大容量的LPDDR服务器内存方案铺路。
LMchNTL