当前位置:首页 > 数据中心 > 正文

如何看数据中心数据(数据中心数据怎么分析)

为什么我的后台看不到数据中心的数据

你好,这不应该是事物的本质,你看到的应该只是表面现象。这是自身服务器的问题,与您无关,请勿造成任何问题。

如何看待数据中心架构变化

随着云计算、虚拟化、SDN等技术不断在数据中心部署,数据中心也到了变革的时候了。为了满足这些新的技术需求,数据中心的架构也从传统的三层向广义的两层架构转变,即新一代数据中心将采用多层架构。两层。所有接入设备都连接到主设备,然后通过主设备路由进行转发。数据中心完全是二层,要实现数据中心之间的VM迁移,数据中心之间也可以进行二层。目前这是一个基于三层物理运行二层的二层虚拟。数据中心内部架构向二级改造的趋势无法改变,越来越多的数据中心架构将朝这个方向发展。数据中心内部整合成一个庞大的二层,虽然架构清晰简单,但也带来了很多实际问题。下面讲一下新一代数据中心架构改造遇到的困难。大二层MAC容量问题数据中心架构正在向大二层演进。这首先涉及到MAC容量的问题。二层基于MAC完成点到点的转发。数据中心内拥有数千台服务器是很常见的。现在数据中心之间必须实现二层转发,这就要求数据中心主设备的MAC容量必须非常大。例如,一个中等城市的宽带至少必须有100万户家庭。要实现全户宽带上网,如果采用二线数据中心,核心网设备必须能够处理100万个MAC容量,这对设备提出了非常严峻的挑战。目前已有可以达到100万个MAC容量的设备,但其应用并不普遍。32K~256K是最常用的容量规格。使用100万MAC容量的设备,此类设备往往非常昂贵,并且给数据中心带来沉重的负担。另外,大型设备的使用还不普及,其稳定性较低。许多能够达到100万个MAC容量的设备都是通过外部TCAM芯片来实现的。由于这种是通过PCI总线访问外部设备,访问速度自然不如内部芯片快,所以这种的MAC学习速度没有那么快,不是线速。在某些环路和振荡中,这些设备将表现出不稳定的MAC学习、流量丢包、显示问题以及许多其他需要解决的问题。因此,在大型二层数据中心中,如何提高设备的MAC容量是当前技术中亟待解决的问题。如今通过技术手段实现超过100万个MAC容量并不困难,但在这种环境下,要保证运行的稳定性,还需要解决很多技术问题。环路问题二层中最常见的故障是环路问题。当规模较小时,可以通过实施STP/MSTP等环路协议来避免环路。当然,STP/MSTP协议也有其固有的,会阻塞备份链路,造成带宽的严重浪费。后来出现了新的二层环路协议TRILL。TRILL协议可以保证所有链路都处于转发状态,避免带宽的浪费。但是,我们知道TRILL实际上是依赖协议来维护TRILL协议的状态的。当规模较大时,设备需要处理大量的协议,这对设备造成很大的影响。。可能具有100万个MAC容量的设备有数百个端口。需要保证所有这些端口的TRILL状态计算都准备好,并且在出现浪涌的情况下,TRILL协议仍然能够正确切换。这对设备的要求非常高,尤其是要保证TRILL协议的交换速度。例如,对于STP协议,正常交换情况下,速度为30秒。如果规模比较大,耗时会更长,有可能达到分钟级别。TRILL协议也是如此。协议不是快速收敛协议。超时和切换速度并不比STP协议快。因此,在TRILL二层环网中,一旦发生切换,收敛速度是一个问题,数据中心的很多业务都非常敏感。如果出现几秒钟的丢包或波动,业务就会受到影响。因此,随着数据中心二层规模的扩大,环路协议收敛问题变得突出。有人建议应该优先考虑TRILL的协议处理,比如在单核上处理,通过软件中断处理响应。这样可以大大提高切换速度,避免受到其他协议的影响。当然,这自然会占用更多的设备资源,效果如何还不得而知。广播域太大的问题第二层遇到的另一个问题是广播域太大。由于整个数据中心,甚至多个数据中心都是二层的,所以会在整个数据中心的设备上广播一条广播消息,这显然会占用大量的带宽。如果广播流量较大,可能会导致个别端口拥塞,影响业务。正常中,广播流量越少,广播流量就越少