NVIDIA 在 AI 服务器领域不断推进,未来三代产品在规格和性能上持续增强,HBM 内存也随之升级,这与全球 AI 发展对算力的高要求相契合。同时,各大内存厂商的 HBM 发展规划也反映出该领域的竞争态势,而中国在 HBM 方面正努力追赶国际水平。
射频微波器件采购网(www.ic - king.com)专注整合国内外厂商的现货渠道,实时查询射频微波器件代理商的真实库存,提供合理的行业价格,放心采购射频微波器件,是国内专业的射频微波芯片采购平台。
NVIDIA未来三代AI服务器的发展呈现出显著的进步趋势。今年下半年发布的基于GB300芯片的Blackwell Ultra NVL72,采用HBM3E内存,每个节点配备两颗升级版的Blackwell GPU、一颗Grace CPU,搭配288GB HBM3E高带宽内存,Dense FP4性能高达15PFlops。2026年下半年的Vera Rubin NVL144升级为HBM4内存,每个节点两颗Rubin GPU搭配一颗全新的Vera CPU,Rubin GPU搭配288GB容量的HBM4内存,FP4浮点性能跃升到50PFlops。2027年下半年的Rubin Ultra NVL576继续升级为加强版HBM4E内存,每个节点包含四颗Rubin GPU、一颗Vera GPU,升级1TB HBM4E内存,FP4浮点性能高达100PFlops。2028年的Feynman全新架构有望首次采用HBM5内存。
在 HBM 内存方面,SK 海力士、三星、美光三大原厂均有各自的发展规划。SK 海力士推出了 48GB 大容量的 HBM4,采用单 Die 24Gb(3GB)设计,16 颗堆叠,数据传输率 8Gbps,IO 位宽 2048 - bit,带宽达 2TB/s。三星展示的 HBM4 有 36GB(12 堆叠)、24GB(8 堆叠)两种容量,数据传输率最高 9.2Gbps,带宽最高 2.3TB/s,采用 MPGA 封装。对于 HBM4E,三星规划单 Die 容量提高到 32Gb(4GB),支持 8/12/16 堆叠,单颗容量最大可达 64GB,数据传输率提高到 10Gbps,带宽可达 2.56TB/s。美光计划在 2026 年量产 HBM4,性能比 HBM3e 提升 50%。
目前,中国在 DRAM 内存、NAND 闪存方面已接近国际领先水平,但在 HBM 领域,多家中国厂商虽已搞定第二代 HBM2 并供货给客户,不过与国际先进水平仍有差距,Eccel代理商还需继续努力。
从趋势分析,随着 AI 技术的不断发展,对服务器的性能和内存要求越来越高,HBM 内存的容量、频率、带宽不断提升以满足需求。未来,NVIDIA 的 AI 服务器架构不断更新,HBM 内存也将持续升级,预计到 2028 年 Feynman 架构搭配 HBM5 内存会带来更强大的性能。同时,三大原厂的 HBM 内存发展规划也显示出行业在不断追求更高的性能和容量。而中国在存储领域的追赶,有望在未来缩小与国际领先水平的差距,实现 HBM 技术的突破和自主可控,为国产 AI 产业的发展提供有力支持。
- 罗德与施瓦茨率先获 GCF 对 5G FR2 RRM 独立模式一致性测试用例认证
- 英伟达助攻人形机器人!Jetson Thor 芯片量产,产业 “奇点” 临近
- 全球最快 5G-A 地铁网络:华为、中国联通在北京地铁 3 号线全线商用,5G 应用新场景
- 英伟达携手通用汽车搞大事情!打造汽车、工厂与机器人的未来新模样
- 蓝牙技术联盟官宣 2025 蓝牙亚洲大会重磅回归
- 美光 70 亿押注 HBM!产能扩张应对 AI 需求,存储芯片价格触底反弹
- 全球首个 5G-A 区域在中东点亮,5G 技术新进展
- 理想 MEGA 智驾升级:Thor-U 芯片加持 城市 NOA 5 月推送
- 马斯克宣布 Optimus 机器人试生产启动,规模将比之前最大产品大 10 倍
- Intel 18A 晶圆量产提前!14A 工艺产能爬坡,先进制程 “三国演义”
- Marvell 推出定制 HBM 计算架构:XPU 同 HBM 间 I/O 接口更小更强,技术突破
- 中国车横扫全球:巴西南非市占率破 15% 性价比颠覆市场
二极管 > 射频(分立半导体)
评估板 > 射频评估和开发套件,板(开发板,
光纤收发器模块(光电器件)
固定电感器(电感器,线圈,扼流圈)
嵌入式 > FPGA(现场可编程门阵列)(集成电
射频接收器(射频和无线)
巴伦转换器 ,平衡-不平衡转换器(射频和无
同轴连接器(射频) > 同轴连接器(RF)适配
接近传感器 - 工业(传感器,变送器)
射频屏蔽(射频和无线)
接近传感器 - 工业(传感器,变送器)
嵌入式 > FPGA(现场可编程门阵列)(集成电























