关键词:数据中心|1539|谷歌|中国|44|能耗数据中心|1539|690|操作|能耗|系统作者|2020|宇宸|10

以5G将来的布署方法为例子怎样根据有效方式减少数据中心能耗

文章内容文件目录

以5G将来的布署方法为例子怎样根据有效方式 减少数据中心能耗谷歌是以哪儿刚开始的锲而不舍的谷歌人谷歌是怎么运用DeepMind来完成减少能耗的这一系统软件现在是怎样运行的可以信赖的设计方案明显提高能耗节省率参考文献:

前不久新基建、大数字新基建的题目四处飞,几日前信通院发布了一篇《“新基建”数据中心能否摘掉“能耗大户”的帽子?》的文章内容。

原文中强调:“从各种数据信息的表层来剖析,数据中心毫无疑问是“能耗种植大户”。从外部经济上看,一个特大型数据中心每一年的用电量近亿度;从宏观经济上看,全球数据中心的耗电量经营规模为205TWh,占全球耗电量经营规模的1%。据中国通信网络研究所(下称“中国信通院”)公布的《数据中心白皮书》统计分析,在我国数据中心产业链年提高30%之上,许多人因而担忧数据中心的能耗也会快速增加,而客观事实真的是这般吗?今年初,世界顶级学术刊物《Science》发表的毕业论文《重新校准全球数据中心能耗估算》的数据信息却说明:全世界数据中心的能耗提高实际上在变缓。”

伴随着互联网技术的迅猛发展,从传统式互联网到虚拟化技术,再到云计算技术、IoT、边缘计算及其5G技术性的逐渐运用,必须可以解决和承重海量信息的算率及其储存,这就必定会令人想到到IDC。这不过是现阶段大家所在的情景,伴随着边缘计算(IoT、5G、云边沿)的要求持续提升,将来的情景将会会产生变化。

将数学计算由去中心化向分布式系统低廷时带宽测试(对比3G和Wifi互联网)的边沿发展趋势,将来情景中将会大量的是遍布在全国各地地市级的大中小型IDC,及其各产业园区和住宅小区的中小型主机房,相互配合通信基站开展近源测算,关键IDC只接受結果、同歩数据信息和派发对策。

以5G将来的布署方法为例子

3G核心网是集中化布署方式,一般是一个省(或战区)布署一个3G核心网,因此3G承载网的总流量实体模型是朝南北方向主导,营运商趋向于选用非常简单的接入网设计方案,如许多营运商选用L2(VPN) L3(VPN)组网方案方式,即接入网选用相对性简易的L2 VPN网络。

5G核心网是CUPS(Control and User Plane Separation)构架,操纵面集中化布署,一般是一个省或一个战区布署一个,而UPF(User Plane Fucntion)是分布式部署的,一般一个大城市会布署一个锚点UPF(Anchor UPF)和许多MEC(Multi-access Edge Computing)UPF。5G MEC能够 布署在营运商的边沿主机房或公司产业园区的公司主机房中(见下面的图)。5G UPF在挪动承重在网上的分布式部署,更改了3G时期承载网的数据库系统和承重方法;在3G时期,这种无线网络核心网总流量是在IP物联网平台上而不是在挪动承载网上去承重的。并且5G MEC常常联接到接入网(如当场 MEC),提升了对5G挪动承载网接入网的作用规定。5G MEC互联网必须一个作用更强劲、适用公司业务流程的网络结构和计划方案,不可以是3G目前挪动承载网构架的简易网络带宽升級。

图1 3G核心网集中型布署和5G MEC的UPF分布式部署(来源于:华为手机)

相关将来分布式系统边缘计算的应用领域能够 去阅读文章《运营商边缘计算网络技术白皮书》和Gartner2020十大发展战略技术性发展趋势的分布式系统云和提高边沿,这不是今天我应说的重中之重。

那麼,返回主题上去。针对那样的一种将来情景,由此可见必须基本建设和更新改造的新基础设施建设应当不容易少,那麼基础设施建设的能耗将是一个极大的大数字,也是公司的一项关键花销。拿IDC而言,网络服务器、计算机设备、储存这种肯定是必须不断供电系统没有什么可以说的,可是此外一个耗电量的“种植大户”将会会被忽视,那便是家用中央空调(温度湿度操纵)。

想一想大伙儿夏季在家里时每个月的空调电费单,是否觉得很心痛,可是不动又吃不消夏季的燃热天气?主机房也是这般,要想确保机器设备一切正常运行,中央空调基础是二十四小时运行的。

怎样根据有效方式 减少数据中心能耗

针对这个问题实际上早在2017年Google就刚开始开展检测和试验了,而且在2017年取得成功在自身的数据中心打开AI温度湿度管理方法,合理减少40%的花销。用数字反映一下这一定义吧,中国数据中心的水电费占运维管理固定成本的60%-70%,而中央空调常用的水电费占40%。大中型数椐管理中心主机房耗电量相比优秀國家差别较为大的,主机房用电量分派是:IT占46%,致冷占40%之上(有乃至的达到50%),其他开关电源、照明灯具占18%上下。能够 看得出致冷耗电量是危害PUE值的重要,中央空调冷是主机房的耗电量罪魁祸首。

中国某营运商省部级五星级数据中心的数据统计,1-十月份主机房用电量5800万kw,即使拿民用型水电费(0.56元/度)来测算吧,那麼每个月的均值花费是3248000元,在其中中央空调本身的花费就需要贴近130万。这还仅仅一个省部级IDC,想一想如果是阿里云服务器、腾讯云服务乃至是谷歌数据中心可能是一个如何的大数字。

那麼假如借助AI智能化监管将空调耗电成本费减少4成,它是如何的改进,就拿上面的事例而言,每一个月色一个IDC水电费就可以省出来52万,那麼如果是全国性呢?

去来看一下在网上的统计分析。据Gartner统计分析,截止17年底全世界数据中心总共44.4万个,在其中小型数据中心42.三万个,中小型数据中心1.4万个,中小型数据中心573两个,大中型数据中心1341个。

图2全世界数据中心及声卡机架数据统计(来源于:Gartner和中国信通院)

在我国数据中心整体经营规模,没找到立即数据信息,可是我们可以测算一下。

图3中国IDC制造行业市场容量全世界比例(来源于:互联网技术)

全世界数据中心今年月42.9万只,中国IDC在全世界经营规模比例30%,那麼大约便是12.87万只的重量级(因为沒有精确数据信息,这一只有做为参照)。它是都还没考虑到将来将会增加的新基建和分布式系统边缘计算构造必须的大中小型IDC总数,姑且就拿这一大数字来测算,一个月全国性IDC能够 节省669.24亿的水电费。在做一个平均化,由于上面的事例是5评星主机房,应当归属于中小型IDC经营规模,那麼再换算一个正中间值—:335亿人民币。

OK空话说得太多了,下边说说谷歌是怎么做的。

谷歌是以哪儿刚开始的

这一切都是从一个20%的新项目刚开始的,它是谷歌的一个传统式,空出時间来做这些没有官方网工作描述范畴内的工作中(也就是是非非KPI业绩考核的事)。数据中心团体的一名技术工程师,十分了解我们在运作数据中心的全过程中每日搜集的实际操作数据信息。大家测算PUE,考量电力能源高效率,每三十秒,和大家持续跟踪比如总负载(在随意时间服务器和计算机设备已经应用的电力工程),户外气体溫度(危害玻璃钢冷却塔工作中)和大家机械设备的水准和冷冻设备。他科学研究了深度学习,并刚开始创建实体模型来预测分析和改善数据中心的特性。

图16谷歌数据中心(来源于:Google)

和别的深度学习的事例很像,例如语音识别技术:电子计算机剖析很多的数据信息来识别模式并从这当中学习培训。在像数据中心那样的动态性自然环境中,大家没办法见到它所载入的全部自变量、外界气体溫度等是怎样相互影响的。电子计算机善于的一件事便是能见到最底层数据信息的状况,因此大家把搜集的信息内容根据一个实体模型在平时实际操作和运作中协助了解繁杂的相互影响。

图5实体模型的一个简单化版本号:搜集数据信息,找到掩藏的交互作用,随后出示提升能耗等级的提议(来源于:Google)

历经不断实验,实体模型在预测分析PUE层面的准确度做到99.6%。这代表能够 运用这种实体模型想更新的方法,提升运行高效率。比如,几个月前,大家迫不得已让一些网络服务器线下几日——这一般会减少数据中心的电力能源高效率。可是大家可以应用这一实体模型来临时性更改大家的制冷设备——降低在哪一段时间内对PUE更改的危害。像那样小的调节,在延续性基本、电力能源和花费上都是有明显的减少。

图6 该模型预测PUE的准确度为99.6%(来源于:Google)

锲而不舍的谷歌人

時间转到2017年,Google的DeepMindAI真实刚开始协助企业完成数据中心用电量成本费提升,并且这一提升的結果是减少40%的致冷能耗,也就代表在致冷层面的花费减少了四成。(玩过星际2的应当会据说前两年谷歌的AlphaStar对决职业玩家的赛事)

谷歌根据将DeepMind的深度学习运用到自身的数据中心,想方设法将用以制冷的能耗降低了达到40%。在一切规模性的能耗自然环境中,这是一个极大的发展。充分考虑谷歌的数据中心早已十分完善,这是一个明显的发展。

尽管Google仅仅全世界诸多数据中心营运商之一,但很多营运商并不象大家一样应用可再生资源。数据中心高效率的每一次提升都是降低对自然环境的总排污,而拥有DeepMind那样的技术性,大家就可以运用深度学习来耗费越来越少的电力能源,并协助处理较大 的挑戰之一——气候问题。你看一下,既划算又环境保护,大发横财,简直赚翻了。

Google是怎么运用DeepMind来完成减少能耗的

数据中心自然环境中电力能源应用的关键来源于之一是致冷。如同你的笔记本会造成很多发热量一样,数据中心——包含驱动器谷歌搜索引擎、Gmail、YouTube等的网络服务器——也会造成很多发热量,这种发热量务必被制冷,以维持网络服务器运作。这类制冷一般是根据大中型机械设备进行的,如泵、冷却塔和玻璃钢冷却塔。殊不知,像数据中心那样的动态性自然环境促使提升操作越来越艰难,缘故以下:

机器设备,大家怎样操作机器设备、自然环境以繁杂的离散系统方法相互影响。传统式的根据公式计算的水利学和人为因素判断力通常没法捕获这种交互作用。

系统不可以迅速融入內部或外界的转变(如气温)。这是由于我们无法为每一个操作情景明确提出标准和启迪。

每一个数据中心都是有与众不同的系统架构和自然环境。为一个系统订制的实体模型将会不适感用以另一个系统。因而,必须一个通用性的智能化架构来了解数据中心的交互作用。

以便处理这个问题,团体在两年前刚开始运用深度学习来更合理地运作Google的数据中心。过去的几个月里,DeepMind的科学研究工作人员刚开始与Google的数据中心团队协作,以明显提升该系统的应用性。根据在数据中心内对不一样操作情景和主要参数开展训炼的神经元网络系统,团体建立了一个更高效率和响应式的架构,以掌握数据中心的动态性并提升高效率。(这就和以前团体的ML方式接上头了,以便一个20%的新项目,资金投入2年時间设计制作和学习培训,但是后面也有事后,这才算是大家应当去学习的科学研究精神实质吧)

根据搜集数据中心内不计其数个控制器早已搜集的历史记录——如溫度、输出功率、泵速、预设值等数据信息——并应用它来训炼一个深层神经元网络的结合来进行这一每日任务。因为大家的总体目标是提升数据中心的能耗等级,大家对神经元网络开展了平均化将来PUE(电力工程应用高效率)的训炼,PUE的界定是总工程建筑电力能源应用与IT电力能源应用的比例。随后,大家训炼了此外2个深层神经元网络集成化系统,以预知一小时内数据中心的溫度和气体压强。这种预测分析的目地是仿真模拟PUE实体模型中强烈推荐的操作,以保证大家不容易超过一切操作管束。

在一个即时数据中心开展布署,来检测实体模型。下边的数据图表显示信息了一个典型性的检测日,包含开启深度学习提议和什么时候关掉它的时间点。

图7 应用ML操纵前后左右能耗比照(来源于:Google)

大家的深度学习系统可以始终如一地将用以致冷的能耗降低40%,这等于在考虑到了电力工程损害和别的非制冷高效率不高的状况下降低了15%的整体PUE花销。它还造成了该网址所闻过的最少的PUE。

因为该优化算法是了解繁杂动态性的通用性架构,团体方案在未来几个月将其运用于数据中心自然环境中的别的挑戰。此项技术性将会的运用包含提升发电站的变换高效率,降低半导体设备的电力能源和水的应用,或是协助生产制造机器设备提升生产量。

团体正方案更大范畴地营销推广这一系统,并将在将要头型的出版发行中共享我们都是怎样保证这一点的,便于别的数据中心和工业生产系统营运商——及其最后的自然环境——可以从这一重特大发展中获益。

这一系统现在是怎样运行的

伴随着時间的变化,大家赶到2019年,再度关心GoogleDeepMind团体,如今的主题风格是“安全第一,用以全自动数据中心制冷和工业控制系统的人工智能技术,”

如今大家把这个系统提高到一个新的水准:大家的人工智能技术系统立即操纵数据中心的制冷,而不是由人工服务实行提议,但依然在大家的数据中心运维管理工作人员的权威专家监管之中。这类根据云计算技术的操纵系统现阶段已经好几个Google数据中心安全性地完成环保节能。

每过五分钟,大家根据云的人工智能技术便会从数千个控制器中获取出数据中心制冷系统的快照更新,并将其键入大家的深层次神经元网络,进而预测分析不一样的潜在性姿势组成将怎样危害将来的能耗。随后,人工智能技术系统鉴别出什么个人行为能够 在考虑一组靠谱的安全性线性组合的另外,将能耗降至最少。这种操作被推送回数据中心,由当地操纵系统认证这种操作,随后实行。

图8系统管理机制(来源于:DeepMind)

这一念头来自于大家的数据中心运维管理的意见反馈,她们一直在应用大家的人工智能技术强烈推荐系统。她们表明,尽管系统早已教會了她们一些新的最佳实践——例如将制冷负载平摊到大量而不是越来越少的机器设备上——但实行这种提议必须过多操作工作人员的勤奋和监管。当然,她们想要知道大家是不是能够 在不用人工服务操作的状况下完成相近的环保节能实际效果。

大家非常高兴的回应:能够 !

可以信赖的设计方案

Google数据中心包括数千台网络服务器,为谷歌搜索引擎、Gmail和YouTube等受欢迎服务项目出示适用。保证他们靠谱、高效率地运作是重要每日任务。大家从源头上设计方案了大家的人工智能技术代理商和最底层操纵基础设施建设,充分考虑安全性和可信性,并应用8种不一样的体制来保证系统在任何时刻都能按预估运作。

大家完成的一个简易方式 是估计可变性。针对每一个潜在性的行動——有数十亿之多——大家的人工智能技术委托测算它的自信心,这是一个非常好的试着。自信心不够的个人行为被清除在考虑到以外。

另一种方式 是双层认证。人工智能技术测算出的最佳行動是依据数据中心营运商界定的安全管理的內部目录开展核查的。命令从云发送至物理学数据中心后,当地操纵系统依据自身的一组操纵来检测命令。这类数据冗余查验保证系统维持在当地管束范畴内,而且操作工作人员保存对操作界限的良好控制。

最重要的是,数据中心运维管理工作人员自始至终在操纵当中,能够 随时随地挑选撤出AI操纵方式。在这种情景中,操纵系统将无缝拼接地从人工智能技术操纵迁移到界定当今自动化技术制造行业的当场标准和启迪。

团体还开发设计了以下的别的安全性体制:

图9别的安全性体制(来源于:DeepMind)

明显提高能耗节省率

大家最开始的强烈推荐系统由操作工作人员核查和实行操作,而大家新的人工智能技术操纵系统立即实行操作。大家有心将系统的提升界限限定在一个更窄的管理机制内,以优先选择考虑到安全系数和可信性,这代表在降低电力能源层面存有风险性/收益的衡量。

虽然该系统只交付使用了几个月的時间,但它早已完成了均值30%的不断环保节能,并且预估还会继续有进一步的改善。这是由于伴随着時间的变化,这种系统会获得更强的数据信息,如下图图示。伴随着技术性的完善,大家的提升界限也将扩张,以完成更大的节能减排。

非常高兴大家的立即人工智能技术操纵系统可以可以信赖地运作,另外不断地节约资源。殊不知,数据中心只是是个刚开始。从长久看来,大家觉得此项技术性有可能运用于别的工业生产行业,协助更规模性地解决气候问题。

最终,用数字做一个小结,如果我们中国超大型、大中小型IDC可以在致冷上节省30%的能耗,那麼这将代表能够 每一年为国家节约3000亿水电费支出。

参考文献:

[1] 吴美希,郭亮,《“新基建”数据中心能否摘掉“能耗大户”的帽子?》[Z], 中国信通院,2020.

[2] 《数据中心白皮书(2018)》[R], 中国信通院,2018.

[3] 《运营商边缘计算网络技术白皮书》[R], 中国电信网,华为手机,2019.

[4] 5G MEC IP网络市场研究报告[R],华为手机,2020.

[5] Jim Gao, Machine Learning Applications for Data Center Optimization[R], Google,2014.

[6] DeepMind AI Reduces Google Data Centre Cooling Bill by 40%[Z],DeepMind,2016.

[7] Safety-first AI for autonomous data centre cooling and industrial control[Z],DeepMind,2018.

[8] David Cearley, Nick Jones, David Smith, Brian Burke, Arun Chandrasekaran, CK Lu,Top 10 Strategic Technology Trends for 2020[R],Gartner,2019.

[9] David Smith, David Cearley, Ed Anderson, Daryl Plummer, Top 10 Strategic Technology Trends for 2020 Distributed Cloud[R],Gartner,2020.

[10] Nick Jones, David Cearley, Top 10 Strategic Technology Trends for 2020:Empowered Edge[R],Gartner,2020.

*文中作者:宇宸,转截请标明来源于FreeBuf.COM

猜你喜欢