取代LPDDR, 华为和苹果都看上的HBM有何魔力
- 2025-07-05 06:44:31
- 651
“高通骁龙8至尊版主控搭配LPDDR5X Ultra内存+UFS4.1闪存,构成了性能铁三角”,这无疑是自从2025年秋季开始,主打性能表现的Android旗舰在宣传时的常用话术。在市场竞争白热化的手机圈,性能成为了各大厂商比拼内功的关键,同时也是新技术应用最频繁的场景。
日前有消息源透露,华为或将抢先苹果落地HBM内存。但在此之前,业界一直流传着苹果方面将在20周年纪念版iPhone上,将HBM内存应用到移动设备中,从而带来新一轮的性能革命。
那么HBM内存究竟是什么,与现在主流的LPDDR5有何不同呢?事实上,HBM(High Bandwidth Memory,高带宽内存)是一种基于3D堆栈技术,通过TSV(硅通孔)和微凸块(ubump)工艺实现的多层DRAM芯片垂直堆叠。而DDR(Double Data Rate)则采用的是并行总线架构,常见于DIMM(双列直插式内存模块)形式。
其实HBM和DDR的核心原理一模一样,两者都是易失性存储器,每一个数据均通过一个晶体管和一个电容组成的Cell来存放,其中的电容器用于存储电荷来代表二进制数据“1”或者“0”,晶体管则作为开关与周边电路联通实现读、写、刷新操作。
两者的区别在于架构设计,如果将传统的DDR视作 “平房”,那么HBM就是“楼房”。通过3D堆栈技术,HBM可以缩短数据传输的路径、大幅提高数据吞吐量,再依靠中间介质层与计算芯片紧凑连接,从而节省芯片面积,最终带来更大的带宽。
HBM的带宽究竟有多高呢?以最新的HBM3E为例,其传输速率达到了9.6GB/s,可提供1.2TB/s带宽。作为对比,LPDDR5X的带宽为8533Mbps(1066.6MB/s),也就是说HBM3E的带宽是LPDDR5X的1180倍。
那么问题也就来了,HBM和DDR在原理相同的情况下,前者为何会拥有更大的带宽?其实秘诀就在于HBM3E使用了支持1024位的数据总线宽度,而LPDDR5X则是64位总线。但1024根数据线显然无法用传统的PCB布线实现,所以HBM就需要用额外的硅中介层,通过3D堆栈技术与处理器(CPU、GPU)连接。
但有得必有失,使用3D堆栈和硅中介层带来的结果就是成本飙升。无论是台积电的CoWoS、还是英特尔的EMIB,硅中介层都极为昂贵,因此也限制了HBM被广泛采用。即便是在没有考虑封装测试的情况下,HBM成本就达到了GDDR的三倍左右。
既然如此,华为和苹果为何会考虑将昂贵的HBM带到智能手机上呢。别的不谈,当年在巴宝莉前CEO安吉拉·阿伦茨的领导下,苹果就曾尝试过奢侈品化,结果超高的定价直接导致iPhone X、iPhone XS的溃败。难道说是苹果转性了,HBM内存带来的溢价不会转嫁给消费者?
事实上,HBM大规模应用在智能手机领域是必然,只是溢价能力更强的苹果和华为有资格尝鲜而已。其实早在2013年,SK海力士就已经量产HBM芯片,可直到最近两年,市场才表现出了对HBM的强劲需求,并且这一切也是靠AI大模型的催化。
当下AI模型的训练和推理对于AI芯片存储架构设计的需求,是既要高带宽、又要大容量。其中大容量很好理解,因为足够大的内存才能将参数规模惊人的模型给放进去,而高带宽则可以让AI模型更快地从内存中访问数据、以缩短计算时间。财大气粗的AI厂商为了在市场竞争中取得领先,自然不吝于花大价钱购买HBM来获取优势。
同理,手机厂商如果坚信AI手机是未来,那么将HBM用到手机上就是必然。因为更安全、更能保护用户隐私性的端侧大模型才是消费者希望看到的,所以这就注定了当下的端云混合模型只能是过度,AI手机的未来一定会是在更大规模的端侧模型上。而使用HBM则可以让手机容纳更大规模的端侧模型,进而提升竞争力。
不仅如此,HBM用到手机上还有另外一个优势,那就是3D堆叠可以节省芯片面积,为机身内部设计释放更多空间。所以除非AI手机不被消费者接受,否则HBM几乎必定会取代现有的LPDDR、成为未来智能手机的标配。