正在阅读:多维布局 英特尔以数据为中心进击未来多维布局 英特尔以数据为中心进击未来

2020-01-15 22:01 出处:PConline原创 作者:张垞 责任编辑:sunziyi

【PConline杂谈】AI技术让我们可以对未来产生更多的想象。

通过AI自动驾驶,困扰城市发展几十年的交通问题有望被解决;通过AI的摄像头,我们可以构建一个更加安全的公共空间;通过由AI控制的各种机器,生产可以更高效、更轻松……

还有太多关于AI的美好想象停留在实验室或理论阶段。想要实现,我们或许还要经历漫长的等待。

这些等待一方面是因为很多技术还不够成熟,另一方面则是因为我们的基础架构还不足以支持AI的广泛应用。

数据中心为重中之重

每一种新技术的诞生都不是无根之水。

正如同蒸汽时代的到来需要海量且廉价的煤炭作为前提,汽车时代的到来需要成熟的石油开采及炼化工业作为基础;在AI时代到来之前,我们的数据中心也要做好准备。

不可否认,AI技术已经在很多领域得到了批量的应用,而这些应用也带来了不少变化。但在这些小规模的实践探索之中,目前的AI应用模式也面临多重挑战。

作为IT技术中的一个分支,AI与其他IT技术一样离不开计算。而AI发展当中所面临的很多桎梏也同样源自计算。现实的情况是,AI应用需要的算力越高,问题越多。

微观的服务器层面,GPU等其他异构计算单元开始成为服务器在接口、空间、散热、供电方面所必须考虑的因素。

而在更宏观的整体数据中心层面,单台服务器的功耗和散热需求增长也对数据中心的设计提出了更多挑战。

如果说供电困难还能通过AI服务器的闪转腾挪、分散安装来减少矛盾的话,那么散热挑战就只能通过全新的方式来解决了。

如此一来,我们便能够理解2018年以来各种液冷散热方式百家争鸣与AI计算需求爆发之间的内在联系了。但我们也不得不承认,液冷散热在为数据中心提供更低PUE和更高散热效率的同时,也给数据中心带来了升级改造费用高昂、硬件维护困难等新的难题。

可以说,AI技术的快速发展让所有人都看到了新的机会、新的市场、新的利润。只不过,在享受这一切美好之前,数据中心里的各种桎梏需要有人来出钱埋单。

换种方式冲破桎梏

兵来将挡,水来土掩;面对AI时代来临之前,数据中心所面临的一系列困境,埋头于具体问题的解决或许是最简单、也最笨的方法。过往的经验让我们能够得出这样一个结论:在复杂系统内,一个简单变量的变化将引发一系列系统性的连锁反应,最终的结果很可能是颠覆式的。而把加速AI普及这件事交给一个充满变数的系统来实践,显然不是最好的方式。

解铃还须系铃人,追本溯源,今日数据中心之所以会面临的一系列困境,核心原因在于传统的CPU无法承担新时代的AI运算。

那么,给CPU加入这样的特性不就好了吗?

新年伊始,在大洋彼岸的CES 2020上,英特尔公司执行副总裁、数据平台事业部总经理孙纳颐(Navin Shenoy)宣布,2020年上半年推出的第三代英特尔至强可扩展处理器(代号Cooper Lake),将包含面向内置人工智能训练加速的全新英特尔DL Boost扩展指令集,与之前的产品系列相比,其训练性能提升高达60%。

换句话说,按照英特尔的思路,我们或许不需要重新设计服务器、不需要大幅更新数据中心的供电系统、不需要使用昂贵的液冷系统,数据中心能够通过部署搭载第三代至强可扩展处理器的服务器就在很大程度上解决AI应用对算力的挑战。相对于前面几种方法,英特尔的解题思路无疑更具成本优势和可实施性。

英特尔:不提前布局,何来破局?

虽然目前还没有关于第三代至强可扩展处理器在深度学习方面的相关测试,对于Cooper Lake架构的细节也没有更进一步的信息披露。但在深度学习以及AI计算方面,英特尔的多枚棋子早已落定。

早在2017年发布的第一代至强可扩展处理器当中,英特尔就引入了AVX512指令集。配合两个512位宽的融合乘加单元,新的AVX512指令集相对于之前的AVX2实现了两倍的数据寄存器数量、位宽。这对于矢量计算来说相当于100%的理论性能提升。

2019年初,英特尔发布了第二代至强可扩展处理器,AVX512指令集也随即进化为DL Boost。配合全新的OpenVION SDK,开发者可以更轻松的调用AVX512指令集,在支持TensorFlow、MXNet和Caffe框架的同时获得更好的性能。

而2020年,深度学习性能相较前代提升60%的第三代至强可扩展处理器将配合全新的oneAPI一起面市。oneAPI是一个由英特尔主导的开放行业规范,它由面向硬件合作伙伴的底层硬件接口和在此之上的Data Parallel C++编程语言及经过优化的函数库三大部分组成。通过使用oneAPI当中的Data Parallel C++来进行编程,开发者可以跳过繁琐的硬件底层适配和优化环节直接写出可以跨CPU、GPU、FPGA、ASIC运行的、高度优化的代码。

当然,2020年,我们还将迎来英特尔的全新GPU——Xe系列……

从不同产品的定位来看,英特尔的计划相当周全。按照英特尔的规划,应用规模最大、对数据中心挑战最多的推理应用部分在未来将由CPU承担,这样既可以充分利用服务器硬件资源,也可以保证服务器的设计规格与当前无异;在最大规模上保护了现有数据中心的投资不会被AI需求所颠覆。

而在对算力需求更集中且对灵活性有更高需求的训练层面,英特尔将以全新的Xe系列GPU来应对。这种模式可以将异构计算限制在尽量小的范围内,让数据中心以更低成本就能满足未来需求。另一方面,由统一供应商提供的CPU和GPU也让未来应用更容易利用两者不同的计算能力,从而更快的完成训练任务并让模型具备更好的普适性。

在软件层面,新的oneAPI则承担重要的连接作用,为开发者能够有机会忽略掉不同硬件之间的差异,实现更高效的开发、验证与部署。

一窥英特尔的宏观图景

AI不是计算的全部,AI计算同样也只是英特尔对未来数据中心架构规划的一部分。因为,在数字化时代,数据中心不仅要应对来自AI的挑战,更要想办法解决更多计算场景的算力需求以及如何存的更多、传输更快等问题。

在提供具备更强DL性能的处理器、全新GPU产品以及更好的编程平台之外,英特尔还提供更多产品以帮助数据中心从计算、存储、网络三个层面实现全面升级。

在计算层面,以Co-EMIB技术为代表的多芯片互联封装工艺已经日臻成熟。通过将不同功能、不同性能、不同IP的多种晶片封装在一起,数据中心能够在统一的硬件架构下实现更多功能。而且相对于重新设计新的半导体产品,这一方式也更便宜、量产更快。

而在存储层面,英特尔也正在QLC、TLC和傲腾内存三条战线上同时发力。三种技术提供了依次提升的存取性能和倒叙排列的容量密度。让数据能够在不同级别的存储介质中更自由、更快速的流动,使得数据中心有机会以更简单的系统架构应对大数据背景下的业务实时性挑战。

同时,在网络层面英特尔也将SDN的精髓融入了微观的网卡层面。在全新发布的以太网800系列网卡中,英特尔在实现了100GbE接入的同时也将应用设备队列(ADQ)和动态设备专用化(DDP)两种技术融入其中,让应用可以对网络封包和网络数据流实现更精细的管控与编排,进而做到更高级的QoS,使网络更高效。

微观层面的时代大戏

不同的人基于不同的专业和观点对未来会有不同的预测。于是,我们也便看到了不同的未来;AI时代、物联网时代、大数据时代、云时代等等,不一而足。

但无论这些未来哪个先来,数据中心都要为此做好准备。因为无论未来如何,数据中心作为承载者的角色是不会有任何改变的。而在数据中心的万种进化路径之中,让巨变发生在微观的半导体层面而不是更宏观的数据中心设计和架构层面无疑是最明智的选择。

未来,人工智能将贯穿从边缘到数据中心的每一个工作负载,构建横跨整个数据传输的途径变得更加重要,也正是在这样的趋势下,我们看到英特尔最重要的战略不仅是发展CPU,更重要的是发展CPU以外的领域,以满足所有不同种类的工作负载。

而作为半导体行业领导者,英特尔也已经突破socket的限制,驱动着数据中心的“三家马车”——计算,存储和数据传输,以数据为中心将这场半导体层面的时代大戏演绎的更加丰富多样。

 

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多

网络设备论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品