当前位置:首页 > 数据中心 > 正文

为什么要把数据中心迁到水下(为什么数据中心建在海底)

数据中心能耗与散热不堪重负idc数据中心能耗

包括供电和在内的运营成本对企业数据中心的影响越来越大。不迁移或重建数据中心就不会产生额外成本的想法已经过时了。不断上涨的能源成本已成为企业的巨大负担。如何有效降低能耗支出成为数据中心管理者的首要任务。大多数数据中心建设时,并没有对所的IT设备的功耗和进行科学评估。在追求绿色计算的时代,人们一致认为应该尽量减少IT设备的功耗,而不是增加能耗。事实上,与几年前相比,IT单位计算性能的能耗和单位GB存储数据的能耗确实有所下降,但数据中心所需的电力和成本仍然比以前高得多。主要原因包括:增加大量计算能力,投入到狭小的机房;当今的机架服务器和刀片服务器每平方米消耗的电量比传统塔式服务器高得多;企业对IT的要求更高,性能提高等,总的供电和散热要求增加。在当今的数据中心中,服务器整合是必须的。由于数据中心的设备高度分布以及单一服务器运行单一应用的“筒仓”结构,运营费用迅速增加,公司的利润被快速吞噬。因此,解决方案是减少需要管理的计算资源的数量,从而降低昂贵的运营成本。然而,这只是人们的美好愿望。按照目前的发展速度,如果数据中心不进行改造,散热问题最终将导致数据中心崩溃的灾难性后果。您可以减少所需移动设备的尺寸和数量,但无法减少增加计算和存储信息设备的需求。你最终需要的可能是在更小的空间内,计算和存储需要更多的功耗。近年来,完全可以在相对较小的空间内装备更多的存储和计算能力。通过减少占用的空间、延长现有设备的使用寿命以及减少需要维护和管理的设备数量,IT可以完成更多工作。显然,这种想法一旦在数据中心推广,数据中心占用的空间将会更小。问题将是硬件变得更小,性能更高,效率更高,供电更密集,产生的热量更大更集中,问题更严重。如何散热变得越来越关键。散热测量在我们思考“用户最关心什么”和“为什么关心它”之前,我们首先介绍一些与数据中心相关的基础知识。热量最基本的单位是英热量单位(BTU),1英热量单位=1055.05585焦耳。消耗的每瓦电力每小时产生约3.413BTU的热量。当电力消耗持续时,数据中心需要空调来散发产生的热量。一吨能力每小时可去除约12,000BTU的热量。因此,原则上,要使数据中心的温度保持在恒定值,相应的总功耗就需要相应的散热能力。显然,许多IT经理已经发现至关重要。如今,大多数数据中心都是在特定假设下部署的,即数据中心负载不仅水平均匀分布,更重要的是任何给定区域的负载不大于数据中心内的负载。比与其共享空间的任何其他部分都大。此外,传统的被设计和部署为建筑物的重要组成部分。据美供暖、制冷和空调工程师协会(ASHRAE)统计,2006年,一个拥有密集服务器和存储设备的典型数据中心,每平方英寸设备空间的平均功耗为5000W。2002年,同等密度的数据中心每平方英寸设备空间的平均功耗仅为2000W。经过四年的发展,数据中心的热密度增加了一倍多。1998年,设备密度还没有那么大,每平方英寸设备空间的平均功耗只有800W。大约八年后,每平方英寸的用电量增加了600%,而且增长速度并没有放缓。考虑到服务器和存储设备平均每3至5年更新一次,在的平均生命周期内(约6年),数据中心的功耗和产生的热量将增加约3至4倍,导致人们很难智能地规划和设计。健康企业的业务将保持合理的增长速度,也将需要更多的计算资源和存储空间。通常,重新部署数据中心不仅很困难,而且为了限度地减少停机时间成本也非常高。显然,继续依赖一种无法满足企业发展需求的传统技术并不是的选择。数据中心设备安装完毕后,几个关键因素会增加热量

实现数据中心间互通的纽带——DCI技术

如今的数据中心不再是一个孤立的机房,而是一个建筑群。一个数据中心可以包含多个分支数据中心,可以将其视为一个数据中心组。这些分支机构数据中心位于不同地点,但可以通过互连,共同实现相应的业务部署。阿里巴巴、、百度等各大互联网公司为了提升客户的接入体验,都会在不同省会城市建立自己的数据中心分支机构,以满足不同地区客户的接入需求。一些计算机房。这些数据中心要协同运行,就必须相互交换信息,这就产生了互联需求,这就产生了DCI,即DataCenterInter-connect,它包括物理层面和逻辑层面的技术。不同地区的数据中心互联的方式有很多种:直接互联网互联、专线互联、或者直接光纤连接。您还可以添加加密以防止传输数据泄露。这里有很多衍生品。新技术,本文将介绍DCI相关的技术,以便大家能够了解DCI。实现数据中心之间互联的链路——DCI技术DCI互联一般有三种。一是三层互连,也称为数据中心前端互连。“前端”是指面向企业园区网或企业广域网的数据中心出口。不同的数据中心通过IP技术互连。园区或分支机构客户通过前端访问各个数据中心。当主数据中心发生灾难时,前端实现快速收敛,客户端接入备份数据中心,保证业务连续性;一是的第二层互联,称为数据中心服务器互联,在数据中心不同服务器的接入层构建数据中心之间的大二层,满足场景下二层接入的需求例如服务器集群或虚拟机的热迁移;最后一种是SAN互连,也称为后端存储互连,它使用DWDH和SDH等传输技术来数据。来自数据中心之间的磁盘阵列。在服务器集群技术普及之前,这三种互联方式都有各自的空间,但在集群应用普及之后,前两种已经无法适应。服务器集群使用集群软件将上的多台服务器组合起来,提供一致的服务,对外表现为逻辑上的服务器。集群软件需要服务器之间有二层互连,以实现虚拟机的难以察觉的切换。如果使用三层互连,则无法进行虚拟迁移。如果采用两层互连,安全就成为的隐患。数十个数据中心组成二层,广播风暴将使所有数据中心瘫痪。因此,这两种都不适合集群部署应用,这也是许多DCI专用技术开始出现的原因。MPLS技术是基于MPLS技术实施方案,要求数据中心之间的互连是部署MPLS技术的核心。这样就可以直接通过VLL实现数据中心的直接二层互连。和VPLS。MPLS包括二层VPN技术和三层VPN技术,其中VPLS协议是二层VPN技术,标准化程度高,已在多个行业部署应用。但VPLS技术相对复杂,部署和运营管理困难,接入类型和方式较多。很多时候,搭建完VPLS后,很多人都不敢去接触配置,这样很容易出现问题。这里我给大家推荐一个大数据技术交流圈:658558542,克服技术瓶颈,提升思维能力。VPLS在海外中较为常见,但在内VPLS部署较少。其中大部分是三层MPLS。然而,要支持服务器集群应用,不能依靠MPLS,只能依靠VPLS。VPLS技术的优点是可以相对容易地部署基于MPLS的城域/广域网。缺点是核心网/城域网必须支持MPLS技术,技术复杂且维护不便。IP隧道技术IP隧道技术是在IP技术的基础上,在任意IP上开通相应的二层隧道,实现数据中心互联。该方案克服了数据中心之间互连链路类型的,是当前的发展方向。IP隧道技术的核心思想是利用“MACinIP”穿越三层,实现第二层互通。MAC学习是通过控制平面依靠-协议实现的。隧道封装采用类似于GRE的动态封装方式。最后,它可以支持双宿主高可用性部署。例如Cisco的OTV、H3C的EVI等都是此类技术。该技术基于IP核心网的L2VPN,可以在不改变内部站点和核心网的情况下,维持站点边缘设备上的信息路由和传递。即在IP上建立隧道来传输标签封装的二层数据报文,从而实现数据中心之间的二层互通。数据中心二层互联方案很大程度上受到用户现有类型的,了二层互联方案在数据中心的应用和推广。IP隧道技术是一种

大数据对于数据中心基础设施有何意义

大数据对于数据中心基础设施意味着什么?如今,我们可以收集和存储来自各种来源的数据,例如在线交易、社交媒体活动、移动设备和自动传感器等。软件开发总是为新的硬件改进铺平道路。在这种情况下,大数据的计算和存储需求无疑正在推动存储硬件、基础设施的发展以及不断增长的处理计算需求的新。对于大数据分析来说,最重要的基础设施就是存储设备。
容量容量
超过PB级别的数据就可以认为是大数据。随着数据量的快速增长,企业存储设备还必须具有高度的可扩展性和灵活性,以确保整个不会中断,存储得到补充。大数据转化为大量元数据,传统文件无法支持。为了降低可扩展性,面向对象的文件应该是灵活的。
关于延迟
大数据分析涉及社交媒体和交易数据,这需要利用实时战术决策。因此,大数据存储不会受到延迟或数据过时的影响。某些应用程序可能需要实时数据才能做出实时决策。存储必须能够在不牺牲性能的情况下进行扩展,这可以通过实施基于闪存的存储来实现。
保证正常访问
由于大数据分析是跨多个平台和主机使用的,因此需要更多的交叉引用数据,并将所有这些结合在一起以提供可视化表示。因此,存储设备必须能够同时处理来自不同源的数据。
安全性
由于交叉引用数据处于新的水平,创建更大的图景,现有IT场景中可能需要考虑新数据水平的安全考虑。存储设备应该能够处理这些类型的数据级安全要求,而不牺牲可扩展性或延迟性能。
成本因素
大数据项目也会涉及大量成本。大数据分析所需的最昂贵的组件是存储。重复数据删除等某些技术可以通过使用磁带备份、数据冗余和构建定制硬件而不是使用任何现成的存储来帮助公司显着降低成本。
灵活性
大数据经常使用商业智能应用程序,这需要数据集成和迁移。然而,考虑到大数据的规模,存储需要能够在不涉及任何数据传输要求的情况下进行修复,同时还需要足够灵活以适应不同类型的数据源,同样,不以牺牲性能或延迟为代价。企业在规划和设计存储时应仔细考虑所有当前和未来的用例和场景。