如今,企业对于GAI的需求迫切正在推动数据中心发生根本型的转变,更大的带宽、更低了延迟、更高的存储容量等等都在推动者新型基础设施的升级。一向被TLC碾压的QLC会走出经济与成本的发展樊篱,成为被更广泛接受的可能么? 我们看到生成式人工智能——以OpenAI的chatGPT为代表,这些技术在最近几个月正被美国和中国疯狂追追逐——以及它们背后的大语言模型(LLM)需要需要更多高性能的计算和存储预期匹配。当英伟达拿出DGX GH200这种用了NVLink、NVLink Switch等技术连接了256块的Grace Hooper超级芯片来支持超算的时候,以人工智能为重点的计算架构突破正需要更多的存储能力来匹配它们。 刚刚在德国举行的ISC23超级计算展(ISC23 supercomputing show)似乎说明了这个问题,HPC对AI和机器学习工作负载的高性能和经济选择的支持正显著强于对容器、云、分析工作负载这些传统工作。尤其是很多传统上那些在传统业务上的存储节点之间运行协调的IOPS,并非非常适合人工智能领域的继续应用。 更快速的访问与传输需求让NVLink、Fabric、NMMe等需要QLC成为高速存储网络的关键一环,成为成本效益的一个解决方案。尤其是,当QLC产品依旧使用NFS作为协议,并基于NFS来创新奇复发的备份策略的时候,这难免让QLC在TLC前依旧捉襟见肘,也并非是大模型的最佳选择。为此,QLC从边缘向存储中心的C位,也是AI创新的一个迫切需求。 企业们正在面临一道关键的选择题,为了获得最佳性能,他们依旧会钟情于TLC;但为了平衡应用大模型下的性价比,QLC的扩展会成为一个很好的选择。 |
原创栏目
企业热点
企业视频
IT百科
网友评论
聚超值•精选