正在阅读:集群的福音 Intel推出下一代互联协议CXL集群的福音 Intel推出下一代互联协议CXL

2019-03-14 00:01 出处:PConline原创 作者:佚名 责任编辑:zhangcha1

  【PConline 杂谈】日前,Intel宣布将与阿里巴巴、戴尔EMC、脸谱、谷歌、HPE、华为、微软等企业共同组建联盟,推广新一代互联标准Compute Express Link,简称CXL,用以实现更高的带宽及更好的缓存一致性。目前,联盟已经发布了CXL 1.0规范。该规范基于PCI-E 5.0标准,拥有与PCI-E 5.0相同的物理接口及电气规范。

CXL联盟成员

  目前,Intel处理器已经集成了PCI-E控制器,可以为CPU和各类板卡之间提供高速且高效的互联通道。但随着异构计算在AI及HPC领域中的兴起,各类计算卡之间的互联就成了一个大问题。

  以GPU为例,当GPU0需要与GPU1交换数据时,数据会先从GPU0的缓存中被读取至系统主内存,再从主内存中传输至GPU1的缓存当中。由于GPU的缓存频率比系统主内存高很多,这一传输过程必然意味着大量等待时钟周期,而CPU的参与亦会加剧这一情况。而CXL的出现则可以帮助不同计算卡之间实现直接的互联,从而让缓存一致操作变得更简单、更直接也更高效。

  虽然NVIDIA Tesla计算卡拥有NVLink技术来解决这一问题,但该技术本身的高昂成本和授权费也让很多预算有限的用户无法承受。而很多其他品牌的GPU以及FPGA和ASIC更缺乏对应的高速互联技术。CXL的出现能够很好的改善这一局面。

  2018年,PCI-E 5.0标准已经在PCI-SGI组织内获得通过,预计将在2019年上半年推向市场及各大制造商。而Intel则会在2019年下半年为合作伙伴提供具体的方案。

  相对于目前主流的PCI-E 3.0标准,新的PCI-E 5.0可以将带宽从8GT/s提升至42GT/s,这意味着在x16规格下,PCI-E 5.0能够为设备提供高达128GB/s的传输速率,这对于数据的高速交换意义重大。

  目前,Intel采用处理器内置的UPI总线来实现4路或8路的处理器互联。而在更大规模的集群或Xeon Phi计算卡之间,Intel则有Omni-Path网卡和交换机供用户选择。新的CXL则可以解决节点内部之间的计算卡缓存一致性问题。

  按照这个路线发展下去,相信Intel未来很有可能推出自己的节点间计算卡互联方案,用来对抗NVIDIA+Infiniband的组合。

  CXL、CCIX、OPEN CAPI与内存驱动的计算

  在解决节点内部的缓存一致性问题上,CXL的主力竞争对手是由华为、AMD、ARM、Mellanox、高通等企业支持的CCIX方案以及IBM的OPEN CAPI。他们的目的完全相同,只不过工作在不同的处理器平台上。不过在接口上各家有所不同,CXL从PCI-E 5.0起跳,CCIX则与PCI-E 4.0接口保持兼容。IBM的OPEN CAPI已经进化到3.0阶段(1.0和2.0版本没有OPEN前缀,是专有技术),在IBM服务器中通常以PCI-E 3.0形态出现。

  而从更长远的角度来看,这些标准都有一个强力竞争对手,那就是Gen-Z。

  Gen-Z是一种以内存驱动的计算架构,其对现有的以CPU为核心的计算机架构时一个重大的颠覆性革新。在Gen-Z的系统构想中,计算机的是由Gen-Z控制器驱动内存资源池(也包括SCM,Storage class memory)为核心来运行的,所有的计算资源都连接在这一总线之上,从而彻底解决多层级存储架构所带来的效率低下问题,并附带解决各类计算卡不断出现所带来的缓存一致性问题。这种架构看似颠覆,但却获得了AMD、ARM、高通、三星等一系列半导体厂商的支持(Intel显然不在此列),HPE已经制造出了名为The machine的内存驱动计算原型机。

  不过CXL、CCIX等内部互联架构的出现和日后的普及可以在很大程度上为目前现行的冯诺依曼计算架构续命,让现有架构继续保持成本、兼容性及效率问题。

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多

网络设备论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品