当前位置:首页 > 数据中心 > 正文

数据中心能耗(数据中心能耗比)

强化“绿色电力”,首次提及“零碳”华为推出零碳数字能源网络解决方案

气候变化是人类面临的全球性问题。2020年12月18日结束的中央经济工作会议上,“做好事”“碳达峰、碳中和”被列为2021年重点任务之一。环境压力、改善消费、推动国家政策也加速转型能源部门。在MWC2021上海大会上,华为副总裁、数字能源产品线总裁周桃源发布了零碳数字能源网络解决方案,旨在帮助运营商实施零碳网络战略,加速世界绿色可持续发展进程。“零碳电网已成为全球各大运营商的重要战略目标。”周桃源表示,碳中和背景下,全球能源重大变革的序幕已经拉开,可再生能源将成为全球能源格局的主要参与者。同时,全球ICT能源消耗持续增长,预计到2030年将占全球总电力的5%。10年内电力成本将占电力总拥有成本的60%以上。数据中心。低碳化和低能耗两条并行路径无疑是运营商未来发展的两个主要方向。运营商陷入能源消耗“黑洞”。随着5G、云计算、人工智能、大数据等技术不断成熟和大量新兴应用不断蓬勃发展,5G网络和数据覆盖数据中心的需求将呈爆发式增长,使得站点和数据中心数量不断增加相关预测表明,2025年通信行业将消耗全球20%的电力。运营商在加强行业数字化转型的同时,也面临着更高的风险。能源消耗挑战。目前,能耗已成为运营商网络建设过程中主要考虑的因素之一。基站是能源消耗大户。大约80%的能源消耗来自广泛分布的基站。众所周知,移动通信的接入需要成千上万的人。基站的能源消耗主要是电力。随着电费的增加和移动网络的扩大,基站机房的电费也逐渐增加。并且由于覆盖范围衰减,5G基站的需求增加了一倍。同时,移动通信基站机房均为全封闭机房。供电设备、输电设备、输电设备等机房内都是大型发热体。为了保证设备恒温运行,不至于因温度过高而造成停机,如果安装了机器,制冷系统必须持续对基站进行冷却,这直接导致能耗较高。在数据中心的总能耗中,空调和制冷系统仍然是最大的能源消耗者。据悉,传统空调制冷系统的能耗占比超过28%。随着数据流量和计算需求的爆发式增长,数据中心能耗压力加大,相关数据预测,到2025年,数据中心能耗将占全球能耗的5%。值得强调的是,除了环境治理等问题外,5G网络和数据中心能耗的不断增加也给运营商的OPEX带来了不小的挑战。据周桃源介绍,某运营商新增5G基站后,整体OPEX增长了34%,其中很大一部分是电费增加所致。因此,我们可以清楚地看到,我们的能源基础设施仍在努力实现碳中和目标。毫无疑问,节能增效不仅是运营商的技术问题,也是企业和社会的责任。电信企业也在这方面积极采取行动。目前全球有超过50家运营商。在媒体沟通会上,周桃源首次提到“零碳网络”,并发布了华为零碳数字能源网络解决方案,包括极简场馆、极简机房、极简无所不在的数据中心。绿色能源和智慧能源云帮助运营商引入绿色电力,节能减排,实现零碳网络,为实现碳中和做出贡献。在站点方面,华为大大简化了站点的形态,从室内站点到室外站点,再开发室外刀片,机房变柜,柜变杆,全杆上站点,降低能耗,节约能源电费和节省租金。华为在建设机房时,针对新的建设场景,用机柜替代机房;对于扩容场景,无需增加机房、更换线缆、添加空调,节省能耗、空间和工程。对于传统数据中心的建设,周桃源认为,目前的数据中心建设模式主要是通过采购不同的部件形成整个电力装置。这种建设模式必然导致能源消耗高、基础设施建设周期长。华为推出的极简数据中心通过全预制化、模块化建造的方式重构架构,将工期从20个月缩短至6个月,并通过整合高密度、高效、经济的解决方案能源重构电源,提高效率。并实现预测性维护,在制冷方面,采用间接蒸发冷却、iCooling等解决方案,最后采用智能运维解决方案重构运维,提高运维效率。“绿能”是华为的智能光存储解决方案。通过将绿色能源引入场馆、机房、数据中心等场景,可以实现光的全堆叠、自发自用,降低电费成本。“零碳网络的提出,将大大提升运营商的经济价值和社会价值。”谈及构建零碳数字网络解决方案的初衷,周桃园指出,华为零碳数字网络的建设碳网络解决方案,

算力值钱、效率高:为什么说智能计算中心是建设新基建的最优方案?

“新基建”浪潮下,人工智能正在成为经济增长新引擎,各行各业正走上智能化现代化转型之路。算力在这方面发挥着重要作用,是国家未来竞争力的集中体现。但事实是,在发展过程中,大数据的快速增加和更加复杂的模型给计算能力带来了更大的挑战,主要体现在计算能力不足和效率低下。算力是宝贵的:数据和算法需要更多的算力。众所周知,人工智能发展三要素中,数据和算法都离不开算力的支撑。计算能力已成为人工智能发展的关键要素。。IDC发布的《数据时代2025》报告显示,2018年全球产生的数据量为33ZB(1ZB=1万亿GB),到2025年将达到175ZB。其中,中国将代表2025年数据量的48.6ZB。2025年……占比27.8%,成为全球最大的数据收集地。赛迪顾问数据显示,到2030年,原生数据产业将占整个经济的15%,中国总数据量将超过4YB,占全球数据量的30%。数据资源已成为关键的生产要素。越来越多的行业正在利用物联网、工业互联网、电子商务等结构化或非结构化数据资源来提取有价值的信息。处理和分析海量数据需要大量的计算能力。巨大的。从算法上看,高级模型的参数数量和复杂度呈现指数增长趋势。OpenAI此前发表的一项研究表明,训练这些大型模型所需的计算资源每三到四个月就会翻一番(相比之下,摩尔定律的翻倍周期为18个月)。2012年至2018年间,前沿深度学习研究所需的计算资源增长了30万倍,到2020年,深度学习模型的算力需求将达到每天数百亿次计算。2020年2月,微软发布了最新的Turing-NLG智能感知计算模型,参数量达175亿。使用125POPSAI算力完成一次培训课程需要一天多的时间。随后,OpenAI提出了GPT-3模型,参数数量达到1750亿个,算力消耗达到3640PetaFLOPS/s-day。GPT-3发布不到一年,一个更大、更复杂的语言模型——参数超万亿的语言模型SwitchTransformer发布了。可见,大数据的快速增长和更加复杂的模型对计算能力提出了更大的挑战。如果计算能力不能快速增长,我们将面临一个糟糕的情况:当大规模数据用于人工智能的训练和学习时,数据量将超过内存和处理器以及所有深度学习的上限。训练的过程将变得极其漫长,甚至连最基本的人工智能都完全不可能实现。效率成本更高:环境和实际成本很高,提高效率刻不容缓。在IT行业,人们认为“数字处理将变得越来越便宜”。但斯坦福大学人工智能研究所副所长克里斯托弗·曼宁表示,现有人工智能应用的情况并非如此,特别是因为复杂性的增加和研究竞争的增加推高了训练最先进模型的成本。。根据美国马萨诸塞大学阿默斯特分校研究人员发表的研究论文,以几种常见的大规模AI模型的训练周期为例,发现该过程可排放超过626,000本书的二氧化碳,这几乎是是普通汽车生命周期排放量(包括汽车本身的制造过程)的五倍。例如,在自然语言处理领域,研究人员研究了该领域性能进步最大的四种模型:Transformer、ELMo、BERT和GPT-2。研究人员对单个GPU进行了至少一天的训练,以测量其功耗。然后使用原始模型文件中列出的几个参数计算整个过程消耗的总能量。结果表明,训练的计算成本与模型大小直接相关,然后当使用额外的调整步骤来提高模型的最终精度时,包括调整神经网络架构以尽可能详尽地执行实验并优化成本,计算成本会呈爆炸式增长。与建模过程的相关性非常高,几乎没有任何性能增益。BERT模型的碳足迹约为1,400磅二氧化碳,相当于一个人来回穿越美洲的排放量。此外,研究人员强调,这些数字只是一个基线,因为训练单个模型所需的工作量仍然相对较低。在实践中,大多数研究人员从头开始开发新模型或修改现有模型的数据集,这需要更多时间。训练和适应,换句话说,它会导致更高的能量消耗。构建和测试一个最终有用的模型预计需要在至少六个月内训练4,789个模型,导致碳排放超过78,000磅。随着AI算力的增强,这个问题将会变得更加严重。根据Syncé