近日,2022中国算力大会在济南开幕,在以“算力筑基高质量发展”为主题的主论坛上,中国工程院院士邬贺铨发表《对数据中心“数学”与“算术”的思考》的主题演讲,提出了对算力的十大思考。邬贺铨解释“数学”即研究数据的科学,“算术”即研究算力的技术。

以算为主还是以存为主?

邬贺铨表示,AI应用驱动算力需求快速增长。基于GPU/NPU/FPGA等构建的AI智算中心适于训练数据导出模型。

训练出数学模型后,深度神经网络的使用并不需要调度非常多的参数,降低了对算力的需求。基于CPU的通用算力的IDC适于在已知数学模型下的计算任务。

邬贺铨指出,是否可以认为AI智算中心主要任务是算,IDC主要任务是存?

三类算力如何合理比例?

目前算力可以分为基础算力(基于CPU芯片)、智能算力(基于GPU和NPU芯片)和超算算力(基于超算)。

从2021年全球算力分布来看,美国占31%,中国占27%,其次是日本、德国、英国等其他国家。美国的基础算力占全球35%,智能算力占15%,超算占30%,而中国这三类分别为27%、26%和20%。

邬贺铨表示,可以看到美国以基础算力为主,中国智能算力的能力远远超过美国。中国的超算和AI智能中心是以政府为主,基础算力以运营商和互联网企业为主,美国则主要是互联网企业为主。

冷数据与热数据

IDC数据显示,人类历史上90%的数据都是在过去几年间产生的,50%在短短两年内生成的,预测到2025年数据量年均将以30%增长,即两年增70%。

一般来说,最近产生的是热数据,经历一周或数月后将转为温或冷数据,冷、温、热数据分别占累计数据总量约80%、15%和5%。

冷数据主要是存储,计算需求非常态。东西部分别适合处理热和冷数据,东数西算实际上是东数西存。

存算分离与存内计算

存算分离架构在控制单元指令下从存储器读数据并交到CPU计算,得到的结果还需送回存储器。但对冷数据I/O往复并不频繁,因此更适用于冷数据处理,例如云平台建模,边缘计算训练与仿真。另外,存算分离可采用开放存储体系和磁带存储介质,存储器可同时服务多服务器,池化存储支持多云,高利用率,降成本与能耗。

不过,热数据需快速计算,但受限于存算分离I/O瓶颈,且CPU能力受累于存储器访问速度难以发挥,更需要存内计算。存内技术以RAM代硬盘,在RAM内完成所有运算,例如自动驾驶可以在车内同时完成存与算,但目前实现复杂和成本高。

邬贺铨表示,虽然西部以处理冷数据为主,但也需要处理当地的热数据,冷热数据是否需要分别采用不同的存算架构?

封闭系统存储与开放系统存储

服务器一般由CPU和内存组成,如果将存储也放在一起,则称为封闭存储系统,但是容量有限。因此,大多数情况下是将存储和服务器分离,即开放系统存储,实现存储容量为多服务器共享,以池化方式支持多云应用。不同存储架构适应不同任务,可按照任务来软件定义存储。

PUE与IT能效

PUE是数据中心能耗占IT系统能耗之比,反映了制冷系统的水平,但并非衡量IT系统的能效。据统计在IDC的IT系统的能耗中,服务器约占50%,存储系统约占35%,网络通信设备约占15%。

数据中心需要7*24小时工作,但通常并非7*24小时都在计算,非计算状态下也耗能,此时存储系统的能耗成为主体。据麦肯锡报告:大部分电能用于维持服务器状态,仅6-12%用于计算。

因此,要降低能耗,首先对冷数据存储采用磁带代替磁盘,预计100PB十年存储成本可下降73%;其次,热数据存储用闪存代替磁盘,改进访速、吞吐量及能效,但目前成本还较高;另外,还要探索通过数据预处理改进能效。

数据可信与灾备保护

数据最重要的是安全,目前主要有两种灾备保护方案。一是三副本方案,容量利用率较低,但读写快,适于小文件;二是4+2纠删码方案,容量利用率较高,但读写慢,适用于大文件场景。这时候就要思考,大小文件需要分区存储,以便采用不同可靠性技术方案吗?

同时,灾备是数据中心刚性要求。据华为/罗兰贝格报告,美国数据保护占存储投资为33.3%,全球平均为27.4%,而我国仅7.8%,并且异地备份的比例更低,防灾能力堪忧。

此外还有值得研究的是对数据备份还是算力备份?算力与存力需要等比例备份吗?

存算协同的思考

根据华为/罗兰贝格报告,中国与美国相比存算比低一倍,导致中国算力利用率也较低,可以理解为,虽然算力有了,但存储没跟上。而存算比并非固定,例如对于冷数据其计算频度低,存算比应比热数据更高。因此,对冷数据和热数据分别的合理存算比应该是多少值得思考。

另外,带宽(吞吐量)和每秒/O操作数(IOPS)是衡量存储性能的两大指标,前者需要聚合更多存储单元的带宽,后者希望减少每次数据存取请求涉及的存储单元数,二者难以兼得。可以从计算任务调度入手,为存储系统提供预判此次任务的IO模式的信息,以便做出针对性的缓存策略和数据一致性策略,甚至将数据调度到合适的存储位置,获得更好的数据存储效能。

算网容量配比的思考

2021年全球数据中心流量分布,数据中心内占71.5%、数据中心到用户占比14.5%、数据中心间占比13.6%。主备数据中心间的数据传输要求同步动态更新数据,实时性高,不过每次更新的数据量不大。但对主备间链路可靠性要求高,通常需要端到端双路由。

另外,东西部数据中心间传输系统容量双向不对称。从东部定期将由热转冷的数据转移到西部,数据量大,但实时性要求不高,瞬时带宽不必很高。西部数据按需计算后的结果需要回传东部,数据量不大,但实时性可靠性要求高。东西数据中心间链路在数据中心到所在城市段需要双路由。我国需要有更多的调研和经验数据来决定数据中心间及到用户间的传输通道容量优化设计。

对于数据中心内,邬贺铨表示,IDC内网多级交换引入时延,需用智能无损交换机和拥塞控制机制。因为,0.1%的丢包率会使网络吞吐率降50%,宁可降速慢传也优于丢包重传。

东数西算的思考

东数西算使得算力设施的布局超越了数据中心枢纽的范畴,虽然设想东部与西部互为冷热数据的配对,但东部西部间应如何比例?

以广东数据中心规划为例,设计省内算力70%,省外算力30%,这与冷数据占比80%差别很大,是否理解冷数据占80%是指存储容量而非算力的比例?另外,在市场经济条件下,东部与西部并非固定配对,各自独立设计部要如何能做到容量最佳利用?

同时,同一数据中心枢纽或集群内部也有很多比例需要优化。数据中心枢纽内有多个数据中心,每个数据中心内部多业主,如何实现枢纽内各数据中心所需的能源与网络资源集约化,并建立业主间资源共享机制,提升利用率。每一个数据中心需要设计算力、存力与网络能力合理的比例以及相应灾备比例,会视冷热数据有不同的优化。数据中心需立足长远建设能效更高的大型数据中心,但切忌一步到位。

此外,Gartner认为,2025年约超75%的数据将在边缘侧处理,需规划边缘与集群数据中心算力比例。

最后,邬贺铨表示,关于数据中心的“数学”与“算术”还有很多需要深入研究的内容,要善于从实战中学习创新。

来源:C114通信网

编辑:任超毅

声明:本文来自中国算力大会,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。