在我们的印象中,数据中心应该是由一排排整齐地堆放在一个大空间里的机柜组成。
但是在服务器后面的走廊里,你可以看到服务器在闪烁蓝色和绿色的LED灯照亮了整个走廊,无数风扇将热空气从服务器机架转移到冷却设备。
即使数据中心不断增加空调和冷却系统,难以缓解数据中心内部局部热岛问题。冷风和热风直接混合,造成制冷量的很大浪费。机柜顶部的设备未获得所需的冷却能力。
因此冷通道封闭系统开始流行,密封了数据中心的冷通道经过处理后,约95%的冷空气可直接送至冷通道并进入服务器机柜,机柜排出的热空气全部被空调机组吸走。
仅从这些点出发,我们很难想象一个巨大的数据中心冷却系统。将一辆普通自行车放入谷歌数据中心的各种彩色水管中会让我们感到震惊。每根管道都涂有多种颜色,可以轻松区分每根管道的用途。例如,粉色管可能是从冷却器泵送的冷水,而绿色管可能是输送到外部冷却塔的热水。
可见,传统数据中心需要较大的占地面积。空间需要大量电力,同时保持机架服务器和空调冷却系统运行。因此,谷歌、微软、阿里巴巴、腾讯等科技巨头不断尝试利用外部自然资源帮助数据中心节能,因地制宜地节能减碳。微软水下数据中心流程2015年,微软Natick水下数据中心项目团队在太平洋海底部署了第一个数据中心,并在那里停留了105天。这一阶段主要是了解在世界各地部署水下数据中心的利弊,以确定由海上可再生能源供电的水下数据中心的可行性。
水下数据中心的优点沿海可利用大量海底免费,无需支付使用生产场地的费用,也无需建造庞大的基础设施。数据中心可由海洋潮汐运动和地面风能产生的低成本电力供电。海底数据中心可以使用海水来冷却服务器并避免大多数自然灾害。世界上50%的人口居住在海岸附近,全球互联网的主干光缆位于海底。海底数据中心可以减少数据包延迟。
2018年英国苏格兰奥克尼群岛附近的Natick项目,35.66在海底12米深处建立了一个数据中心。这个12米长的密封舱内有12个机架和864台服务器。为了减少氧化,将水和氧气从密封室中吸出并用氮气代替。
今年7月,这个水下数据中心仅打捞出8个864台服务器出现故障。水下数据中心利用流动海水自然冷却散热,可靠性是其他同类产品的8倍。
微软水下数据中心对于行业内运营的公司来说非常重要。很简单:利用风能/潮汐能发电成本经济,水下数据中心不需要生产场地使用成本,不需要冷却/散热系统,减少维护成本。节省下来的巨额开支就是利润。
典型的传统数据中心成本占生产成本和电力的15%消耗占所有成本的20%。只有大约47%的功耗流向服务器,41%消耗在散热上。据统计,全球数据中心每年消耗的电力约占全球总电力的2%。可想而知微软水下数据中心在节约能源、减少碳排放方面的重要性。以上只是我个人的看法。欢迎批评和指正。如果您同意我的观点,请给我点赞并离开,谢谢!如果喜欢我就关注我吧,再次感谢!
上一篇:海底数据中心上市公司
下一篇:海南海底数据中心项目签约公司