HGST公司在今年的闪存记忆体峰会上再度成为力与美的结合,其相变存储器不出所料又一次牢牢抓住了与会者们的眼球。
在这场热火朝天的闪存业务盛会之上,HGST公司的相变存储器技术拿出了令人叹为观止的参数表现。关注这一技术的朋友可能还记得,去年HGST的相变存储器以PCIe PCM SSD的形式亮相,其延迟约为1.5微秒、IOPS则在300万。而今年其则采用通过InfiniBand实现接入的RDMA PCM SSD为载体,512 B数据块读取延迟仍然控制在2微秒以内、2 KB数据块吞吐能力更是高达每秒3.5 GB。
作为相关背景,易失性DRAM存储方案在电力使用成本方面相当昂贵,而HGST打造的非易失性PCM卡则用不着大量能源支持,同时又能提供与DRAM相仿的速度表现。
InfiniBand互连方案来自Mellanox公司,其市场营销副总裁Kevin Deierling在一份声明当中的指出:“未来,我们的目标是同时利用InfiniBand与融合型以太网RDMA(简称RoCE)为PCM提供接入支持,从而提高可扩展水平并降低内存内应用程序的实现成本。”
HGST公司还宣称其正在构建一套持久性内存体系,并将其描述为一套基于PCM、支持RDMA的内存内计算机集群架构。该公司同时表示,其主机服务器不需要对BIOS或者应用软件本身作出任何修改。
在此次闪存记忆体峰会的演示环节当中,HGST拿出的RDMA连接型PCM存储方案在速度上较NAND更快,不过目前仍没有正式产品可供买家选择。
那么HGST方面目前的进度如何?去年其PCM芯片由美光公司负责提供。让我们假定今年芯片供应方仍然由美光充当,而HGST的思路也确实是销售PCM存储卡产品。就当前的状况看,HGST明显还没有准备好,因为该公司还没有将任何基于PCM的存储卡产品投放市场。
看起来,HGST公司似乎打算开发出一套支持RDMA的InfiniBand或者高速以太网连接PCM设备,并将其添加至服务器内存地址空间当中,从而帮助用户实现即将逐步来临的内存内计算需求。
远程PCM利用远程直接内存访问(简称RDMA)协议在网络基础设施之上——例如以太网或者InfiniBand——实现内存映射,从而构建起一套无缝化的内存内计算大规模部署方案。这套基于网络的方案允许应用程序利用来自多台计算机设备的非易失性PCM存储资源,从而根据实际需求进行规模扩展。
HGST公司CTO Steve Campbell在声明当中表示:“我们与Mellanox方面通力协作,证明非易失性主内存完全可以被映射到整套网络环境当中,同时在延迟与性能水平方面充分满足新兴内存内计算应用程序的具体需要。”
Diablo Technologies公司的Memory 1属于服务器之内依靠DIMM进行连接的NAND存储方案,其作为DRAM的替代与扩展机制存在。HGST公司的持久性内存体系则属于联网解决方案,其能够支持的规模水平远超DRAM替代与扩展这一层面。那么其访问速度是否能够压倒Memory 1呢?目前我们还没有明确答案。
英特尔与美光公司打造出的3D XPoint内存在速度上超过了NAND,但相较于DRAM仍然略逊一筹,而且可能会在2016年年内正式投放市场。目前尚不清楚3D XPoint产品在价格与性能表现方面同PCM相比孰优孰劣。
就目前来讲,HGST公司提供的演示成果只能算是PCM的一次初步尝试。如果大家对此抱有兴趣,不妨亲自到本月11号到13号于加利福尼亚州圣克拉拉市圣克拉拉会展中心召开的2015闪存记忆体峰会上看一看,HGST公司就在645号到647号展台等着您。