HI,欢迎来到学术之家,发表咨询:400-888-7501  订阅咨询:400-888-7502  股权代码  102064
0
首页 精品范文 数据中心

数据中心

时间:2023-05-30 10:43:57

数据中心

数据中心范文1

数据中心建设硕果累累

中金数据从公司建立之初,就定位在为全国的重点行业客户提供服务。如今,中金数据的全国数据中心布局全面覆盖北京、上海(长江三角洲经济圈)和广州(珠江三角洲经济圈)这三个中国最重要的经济中心,是目前国内领先的高等级数据中心外包服务提供商。中金数据的核心数据中心节点将组成覆盖全国的大型高等级数据中心网络集群,不仅为当地客户提供生产中心、同城备份中心和远程异地备份中心服务,还将作为网络化的存储、计算和应用运行资源,以其国际领先的可用性和功率密度等级、国内乃至亚洲最大的规模和容量,成为最先进的云计算基础设施平台之一。

中金数据的主要客户是金融行业用户,中金数据是目前中国金融后台服务领域领先的服务商,在生产中心外包、灾难恢复和业务持续管理、云计算服务领域,成功服务于中国人民银行、中国进出口银行、中国农业发展银行、中国建设银行总行、中国农业银行总行、交通银行总行、华夏银行总行、北京农村商业银行总行、新华人寿保险、泰康保险、银行业协会、安诚保险、中国外汇交易中心、富滇银行、广州商业银行、临商银行、广发基金等金融客户。

中金数据在发展的过程中得到了政府相关主管部门的大力支持。2008年,中金数据被认定为国家信息安全专业化服务项目,并获得国家资金支持。同年,中金数据参与了国家重要信息系统灾难备份规划、标准、管理政策制定工作。2008年12月,中金数据被北京市政府认定为首批高新技术企业。2009年,中金数据参与了工业和信息化部牵头组织的信息技术服务标准工作组,是标准工作组的发起组织单位之一。2010年,中金数据成为国家指定“云计算”试点城市北京市“祥云工程”的核心企业,牵头组织“云计算”产业链项目,为北京市“十二五”期间云计算相关产业发展实现2000亿元市场规模贡献力量。2011年,中金数据成为广州“天云计划”、重庆“云端计划”、哈尔滨“云飞扬计划”等多个城市和地区的云计算发展规划中的核心企业,帮助广州、重庆、哈尔滨等城市规划云计算产业链发展,以实现“十二五”期间云计算产业发展目标。

2011年7月,北京市“祥云工程”正式在中金北京数据中心建立“中金云后台”。“中金云后台”是北京“祥云工程”规划的第一个云后台,目前可以为北京“祥云工程”提供超过2000平方米的机房面积,能够支撑近万台服务器的运行,2013年,二期工程建成投产后将提供超过1.6万 平方米 的机房面积,能够支撑10万台服务器同时运行,并支持10PB级别的数据存储。

北京数据中心

中金北京数据中心是国内首个定位于社会化专业服务的大型高等级数据中心,拥有独立的中央机房,按行业最高的可用性等级建造。

中金北京数据中心一期工程于2008年建成投产。工程设计采用了多项创新技术,获得了工业和信息化部建筑设计一等奖、住房和城乡建设部银质奖,是国内数据中心建设的一个里程碑,并成为众多用户和同业企业的参考对象。中金北京数据中心一期工程为众多高端客户提供了安全稳定的服务,充分体现了其先进的设施条件和完善的运行管理,深得客户的好评。

中金北京数据中心二期工程将于2013年建成投产。二期工程采用更加先进、高效的设计方案,供电和制冷密度将由每平方米1千瓦提高到2千瓦。同时,二期工程还将采用更加节能的水制冷系统和自然冷却方式,建成投产后将为客户提供更大规模和更为高效的数据中心基础设施服务解决方案。

烟台数据中心

中金烟台数据中心位于山东省烟台市烟台经济技术开发区,是中金数据建设的第二个数据中心。在北京一期工程成熟经验的基础上,根据最新工程技术的发展,中金数据对烟台数据中心的设计方案进行了更进一步的优化,供电和制冷密度提高了30%~60%。

华东数据中心

中金华东数据中心位于江苏省昆山市昆山花桥国际商务城,东距虹桥交通枢纽约15分钟车程,可经密集便捷的高速路网和轨道交通,快速到达上海市区及浦东、苏州和江南部、嘉兴以及浙江东北部,地理位置极为优越。中金华东数据中心紧邻苏州河畔,周边环境优雅,配套设施齐全,为客户建立生产中心和备份中心提供了保障。

如今,中金华东数据中心率先在国内高等级数据中心中采用具有最高能效比的大型水制冷系统和热能综合利用系统,具有高达每平方米2千瓦的供电与制冷能力,并支持局部热点区域的强化制冷,满足今后更高密度的IT设备部署需要。中金华东数据中心标志着中金数据系统以及我国在数据中心的设计上取得了跨越式的发展,特别是在容量指标和节能水平上均达到国际先进水平,完全能够满足国内外高端客户以及云计算的应用运行要求。

数据中心范文2

不论是私有云、公有云或是混合云,云数据中心的建设者都需要仔细考虑和解决下面这些问题:如何提高数据中心的资源利用率、如何降低整体成本并优化管理、如何应对业务的快速变化、如何伸缩自如等。

目前数据中心的建设多奉行分开采购的策略,即服务器、存储、网络设备、平台及应用软件等各自独立采购,而后再集成的方式,类似于电脑时代的DIY,这在一定程度上降低了数据中心的初始购置成本。然而,随着云数据中心规模的不断扩大,业务需求不断变化,IT技术日趋复杂,企业将在后续运维/运营上消耗过多的人力物力,而IT效率低下也终将阻碍业务发展的步伐。

因此,企业更加希望购买到的是一个数据中心基础设施整体方案,这样IT部门才能够聚焦于对业务的敏捷响应,为公司业务提供增值,由成本中心转为创新中心、利润中心。于是融合基础设施就顺理成章地进入IT管理者的视野,近年来融合基础设施市场的快速增长也印证了这一趋势。根据Gartner预测,到2015年,将有近30%的数据中心将采用融合基础设施。

当前,业内融合基础设施的发展模式之一是以集成为主,比较常见于IT厂商之间形成的联盟。他们根据已有的经验和最佳实践,将来自不同厂商的产品预先集成在一起以构建融合基础设施,有些厂商还会集成一套定制化的统一管理平台。这无疑是在传统的基础架构之上迈出了关键的一步,为客户从繁琐的IT日常管理运维中减负。其不足之处则在于,基础部件来自各个厂商,无法实现高效协同;统一管理平台对于不同厂商产品的管理也存在局限;运维管理仍然要求具备各个厂商设备的技术知识及技术认证;售后以及故障诊断过程中存在厂商间的互相推诿等等。

为克服以上不足,华为推出了具备深度融合的一体化基础设施—FusionCube,据称是业界首款真正做到把计算、存储、网络以及虚拟化平台有机融合在统一的架构之下。随之而来的好处是:提高集成密度,节省机房空间;减少设备间连线,降低故障概率;同一厂商部件易于端到端协同,提升软硬件的整体性能,同时提高统一管理的效率;售后技术支持的体验更佳。

在传统方式下,企业在进行IT基础架构设计时,需要考虑服务器选型、软硬件兼容性验证,耗时耗力。而作为业内首个超级融合的云计算基础设施一体机,华为FusionCube融合一体机是一个软硬件资源深度整合的融合基础设施,所有部件通过虚拟化技术被池化后形成标准化的资源,而且与企业应用软件与中间件/数据库软件完全解耦。企业只需关心需要预留多少资源已满足企业应用。由此减少方案设计的工作量,降低方案设计的复杂度。更值得一提的是,凭借自主创新的分布式存储技术,完美解决了长期困扰企业的I/O性能瓶颈,数倍提升企业关键应用的性能。华为FusionCube产品总经理王丰表示:“融合基础设施的成熟将给数据中心带来一个崭新的应用与管理模式,在使云计算时代的IT系统更加简单、高效的同时,不断提高系统性能,帮助企业减少投资,提升核心业务的运作效率。”

数据中心范文3

云计算的落地离不开数据中心的支持,在云计算需求的强力推动下,一批传统IDC正在向云数据中心转型。日前,万国数据服务有限公司(以下称万国数据)联合日本软银电信株式会社(以下称软银)在上海宣布正式推出高可用云数据中心。基于该高可用云数据中心,万国数据推出了各种云服务,以满足各类需要高可用云服务的高端客户的需求。

万国数据服务有限公司副总裁孙岗表示,万国数据推出的高可用云数据中心不仅可以为用户提供数据中心常见的CPU、内存、存储、网络等IT资源的按需服务,还可以为用户带来虚拟资源池服务,由企业在类似私有云的环境中创建并管理虚拟机资源,设置网络和安全策略。

比如,通过万国数据外高桥数据中心配套的高质量BGP网络,用户IT部门可以创建可交互操作的服务交付模式和方法,从而在确保安全性和控制力的同时全面实现灵活性和云计算优势,用户甚至可以通过“混合云”模式,进一步扩展企业内部数据中心的逻辑界限,使其能够利用广阔的公有云资源服务。这些云服务既可以按小时根据使用的资源付费,也可以按照资源池以固定月租费或年费的形式付费。

与一般主打灵活和成本优势的云计算服务不同,“高可用”是万国数据云数据中心及其相关云服务的主要特点。“万国数据通过多年的服务,积累了非常多的应用云经验,自己总结了一些高可用的方法。所有的这些方法都可以在高可用服务框架下展开实施,其中云计算服务也是我们高可用服务框架下的一个服务。‘高可用’本身就代表了万国数据的核心理念。”孙岗说。

据孙岗介绍,万国数据会从多方面来保证云数据中心的高可用性:一方面,位于上海外高桥的这个高可用云数据中心构建于高等级的IT基础设施之上。比如,设有双路供电,并专门设有一个35kv的变电站来满足数据中心的供电需求,全部符合ISO 270001标准的安全体系等;另一方面,该云数据中心提供的是VMware vCloud DataCenter服务。VMware vCloud DataCenter服务是一种随时可用的企业级云计算服务,只能由经过VMware认证的服务商提供。这种严格的认证机制不仅保证了云服务本身的高可靠性,还可以确保云服务在公有云和用户基于VMware产品构建的私有云之间进行自由迁移,从而能够充分应对突发性计算的需求;第三,这次推出的云数据中心是万国数据联合软银共同建设的,此前软银已经在日本建立了类似的数据中心。类似的云数据中心和云服务都已经在日本得到了检验。

“作为企业级的高等级云服务,万国数据高可用云数据中心对于IT资源和运维等各方面都制定了严格的标准和要求。其符合国际最高等级数据中心要求的物理环境与设备、高规格的运维及支持,以及严格的安全审计规范,都将成为万国数据云数据中心云服务的重要支持资源。”孙岗总结说。

数据中心范文4

上海科技网络通信有限公司(简称“上海科技网”),是云赛智联股份有限公司的成员企业。上海科技网定位于一家中立的数据中心(IDC)服务提供商和宽带城域网运营商(NSP),主营业务包括互联网数据中心、云计算服务、互联网接入、虚拟专用网和驻地网等,长期服务于各政府机关、企事业单位、科研院所、电子商务、物流制造、银行证券、互联网金融等行业,累计客户超过3000家,其中不乏世界500强和中国百强企业。

成立于2000年的上海科技网,注册资金达2亿元。公司前身是“上海市人民政府科技网”,在“九五期间”是上海市政府三项科技标志工程之一、市政府信息港工程。十几年的发展,上海科技网荣获了国家发改委下一代互联网驻地网实验单位、科技部网络实验床、上海市高新技术企业、上海市文明单位和全国互联网信息服务业收入百强企业等荣誉称号。上海科技网还获评2013年度的全国优秀数据中心、2015年度的中国数据中心运营管理杰出服务商和中国云计算领域最佳解决方案等奖项。

上海科技网拥有丰富的网络信息服务资源,城域网在本地有60多个网络节点,自有光缆达1600多皮长公里,基本覆盖本地市区和各郊县,拥有两个独立的AS网络号,与中国三大基础运营商BGP互联。自建自营的互联网数据中心有漕河泾机房(500组标准柜)和宝山云计算中心(1600组标准柜),均按照国际领先的Tier-942标准建造和运营。

上海科技网拥有IDC、IP-VPN、ISP、ICP和CPN等互联网特许经营牌照,并通过了ISO20000信息服务流程管理体系和ISO27001信息安全管理体系,以及信息系统安全等级保护三级。

上海科技网宝山云计算中心位于长江西路101号。聘请IBM公司设计,采用“传统与现代相结合”设计理念,遵循绿色节能数据中心原则,按照国际标准T3+级建设的高密度、大容量数据中心机房。所在园区设有7×24小时保安巡检,云计算中心则另设有7×24小时安保中心,负责整个建筑的保安和消防的监测、控制和管理。宝山云计算中心机房业务区域实现单进单出机制,出入口均有7×24小时专业人员值岗,周界红外入侵检测和建筑防撞隔离。总控中心(ECC)负责机房内部监控,数据中心内部还设有分区指纹验证,极大地保护了客户IT资产的安全。

近年来,上海科技网在服务传统企业“互联网+”的过程中,逐渐摸索出属于中立机房自己特色的互联网安全防护手段。截至目前,上海科技网已成功部署电信和联通两套防护系统,能有效应对互联网多样性给用户带来的各种攻击,尤其是DDoS攻击。上海科技网还积极地在云计算、移动互联网、大数据、物联网和智慧城市等领域进行探索。通过与业内领先技术团队的精诚合作,上海科技网目前已经建立起能够自主服务于商业客户的云平台,并且通^了国内关于云计算服务的最权威标准之一“可信云”认证。云赛智联股份有限公司与复旦大数据学院战略合作的大数据试验场和大数据联合研究实验室,也落户在上海科技网的宝山云计算中心。

未来,上海科技网将聚焦于“做大IDC、做强云计算、做实城域网”的战略目标,更加积极地实践以IaaS为基础的云计算服务和面向业务应用的大数据挖掘。转型中的上海科技网,正努力抓住国企改革和行业发展机遇,力争在不远的未来成为国内最具影响力的企业之一。

数据中心范文5

数据中心也可以移动?在2006年,许多企业规划的数据中心方案是可以移动的,这种一体化的、可移动的、“快餐式”的数据中心解决方案能够有效化解传统数据中心面临的许多问题。

今年,这些方案陆续面世。Rackable公司了其移动数据中心解决方案Concentro。Concentro外形就是40英尺长的盒子,是一个新的采用模块化结构,以集装箱形式包装的数据中心。该数据中心内包含了高密度的服务器和存储设备、高效的制冷设备。Sun早在去年就展示了其黑盒计划(Project Blackbox),也是把一堆服务器及其相关设备装在一个20英尺长集装箱中,形成一个“便携式”数据中心。

据说,Concentro已经在今年3月开始供客户订购,Rackable也获得了一些订单。Sun的产品紧跟着上市,新产品看起来不错,将很快将向客户交付这些产品。

不过,这种可以移动的黑盒子似的数据中心可靠吗?

黑盒子的真面目

这可能是目前为止数据中心中体积最大的设备了。两家公司分别生产的这种改装的、设备齐全的数据中心,最大可以装备1200台服务器和3.5PB网络存储能力。而最值得炫耀的是用户的能源消耗将大幅降低。

Rackable公司可移动数据中心解决方案Concentro据称首先配备了采用Intel Xeon 4核处理器的半高服务器,尽可能地增加了每平方英尺的服务器密度。Rackable采用了高效的制冷技术,能有效降低制冷所需要的电力花费。根据Rackable的估计,相对传统的数据中心环境,Concentro在制冷方面的花费能够降低80%。Concentro能够在一个40英尺长、8英尺宽的集装箱内容纳9600核的计算能力,或者最高3.5PB的存储能力。作为完全配置的、集装箱包装的数据中心,只要把电源插头插到插座上,把网络接口连接上,Concentro能够在数分钟内即被部署完毕。

随后,Sun展示了Project Blackbox,也就是把一堆服务器及其相关设备装在一个20英尺长集装箱中的“便携式”数据中心。这种“黑盒”可以容纳最多250台Sun Fire T1000或x64架构的服务器,最高7TB内存,1.5PB硬盘存储空间或2PB磁带存储空间,只要有电源供应,这个数据中心就能在任何地方开始工作。“黑箱计划”将计算系统、存储设备,还有联网的基础部件,以及高效供电系统和冷却设备全部放在一个模块化的标准集装箱内,这样就可以在任何时候、任何地点灵活、方便地进行部署。与以往数据中心相比,这个黑箱的成本仅为其1/100,每平方英尺的成本仅为其1/50,能耗仅是其20%多。

为什么需要它?

Rackable 和Sun的产品已经开始与用户见面。两家公司的方案都基于集装箱模式,一个长40英尺,一个长20英尺。它们允许不同类型的公司在任何有电力供应、有散热条件和网络链接的地方部署这种数据中心。分析家认为,这对于在居住人口密度比较大的苦于高能耗成本且没有不动产的公司来说,简直就是一个天赐之物。

要么是还没有现成的用户,要么是这些用户不愿意在媒体上曝光,所以两家企业所宣传的投资回报率(RIO)并没有得到实际验证。Sun透露,其移动数据中心的第一个用户是Stanford Linear Accelerator Center(斯坦福线性加速器中心),计划采用Project Blackbox,迅速扩大其物理学与天体物理学研究中的高性能计算和数据中心的能力。期间,Rackable声称Concentro的第一个用户是“互联网的领导企业”,但拒绝吐露企业的名字。

分析家对这一新产品打出了高分。这种产品为用户迅速扩大现有数据中心计算与存储能力提供了便利,省去了从规划、设计、配置等传统数据中心建造的一系列环节,高效而且实用。事实上,从字面的意思看,这种移动数据中心是“可插拔的设备”,可以看成是一个巨大的网络设备,用户可以部署任何想要的东西,可以随意地插拔。

Rackable 在其产品中为用户部署了自己的服务器产品,而Sun的数据中心则具有部署自己与其他企业应用平台的能力。Yankee Group认为,这里可以部署与传统数据中心相同的机架系统与服务器设备,差别是为用户提供的是可移动的数据中心,而不是一个建筑物。

两家企业都认为,其产品与放置在建筑物中的传统数据中心相比,大大降低了用户的首次购买成本。Sun认为,其系统的价格依照数据中心中部署的服务器与存储系统的数量;而Rackable则认为,其产品全配置的价格从200万美元到300万美元,相当于传统的价值2000万美元或者以上的传统数据中心。

Sun的Project Blackbox正瞄准了许多行业,包括航空、制造、石油与天然气、电信、媒体与娱乐、教育等。Rackable则瞄准了需要扩大数据服务器和存储的大型公司。

能耗与散热

Sun公司的Yaplee女士认为,这个黑盒子似的数据中心节省电力消耗并不是因为距离绿色能源比较近。她估计,采用这一移动数据中心,相比传统的数据中心,能源成本平均可以减少20%。Project Blackbox采用了创新的水冷散热设计与紧密的排列形式,能够保证散热比传统的数据中心更有效。

水冷系统比传统的空气冷却散热更有效,而装备了1000多个x64 CPU 核或者2PB存储系统的Project Blackbox,在160平方英尺的空间电力需求仅为200kw。一个典型的传统数据中心在相同的电力供应下,运行相同的负载,可能需要4倍以上的空间。4倍的空间,对数据中心的散热来说是多么可贵呀。

Sun和Rackable在其黑盒子数据中心中,创造了非常有效的电力供应与冷却散热系统。Rackable公司的数据中心方案部门的负责人Conor Malone先生认为,Concentro可以装备1200台服务器或者3.5PB的存储,提供管道化的水冷系统与电源供应。风扇将冷空气吹过每个机架的散热器与每一个服务器。他认为,这套系统相比传统的数据中心,非常显著地降低冷却散热的成本,是一个非常有效的系统。而下一代的Concentro将更进一步,散热系统不需要水。

冗余配置

对于需要为其数据中心架构建立容错保护的公司而言,获得一个冗余设计非常容易。移动的数据中心可以在你的应用环境中自动建立冗余,借助虚拟化技术,你可以非常容易地迁移一个正在运行的服务器。你可以在原来的数据中心更新时,把它作为一个临时的数据中心来用,也可以用做技术更新试验。

Yaplee认为,这一黑盒子长期与短期都可以应用。一个应用是可以用它作为短期的从老数据中心移植应用,然后进行配置,也可以作为一个备份系统。

Sun正在制定更进一步的针对移动数据中心的发展计划,但是没有透露细节。

安全与实现基础

这样像容器一样的数据中心可以像卡车一样移动,也可以用火车或者轮船运输,甚至可以露天放置,作为传统数据中心的补充。Rackable公司的Malone说,这样的容器本身结构是防风雨的,可以经受雨淋火烤。

数据中心范文6

大到GDP、PM2.5,小到每个人消费的精打细算,无不与数据结缘,数据也已成为当今信息社会的组成部分。信息技术推动了以数据为基础的工作方式和工作习惯,言必谈数据似乎慢慢成为一种职业共识。

信息技术革命的本质是信息数据化的深刻变化,随着信息技术在社会生活各方面渗透得越深,数据信息就越丰富。最终我们将打造一个与社会物质世界相互映射的数据世界。这些数据信息的存储、挖掘、使用,催生着数据中心的整合和优化。

信息的存储、挖掘、使用,从另一个角度来说就是要消费信息。但消费信息需要的是有用信息,要在海量信息中整合提炼出用户所需的信息,仅仅以本企业或本单位的数据中心的数据为基础恐怕远远不够,而更加广泛的外部相关信息对决策往往起着重要作用。在信息社会谁拥有更多数据信息谁就拥有机会,谁拥更多有数据信息谁就拥有财富,谁拥有更多数据谁信息就拥有未来。

近年来,我们经历了数据的飞速发展变化。以政府部门为例,从信息孤岛到数据大集中,从部门各自为中心的分散服务器到统一的服务器整合,一步一步的发展变化,彰显了数据信息的发展变化过程,而这只是部门内部的数据整合。随着互联网技术的普及,物联网的建立以及移动互联技术的逐渐成熟,数据呈现大爆炸状态,光靠部门内部数据进行决策参考已不能适应快速多变的情况,数据中心建设必须要突破数据相对缺乏的窘态,走向全面数据整合和深度数据挖掘。也就是要建立更加广泛的数据来源渠道,充分利用海量数据进行更加智慧的决策。

当前,中国的信息化进程还处在初级阶段,拥有了计算机设备和应用软件,接通了互联网,并不表明信息化程度就上去了。由于技术、资金、人才、场地、运维等各种原因,原来的数据中心已经逐渐不能承担决策者越来越多的对数据的要求。另外,信息技术又催生了各行业的快速发展,产业发展对数据的需求与日俱增,简单的数据中心和局部数据难以支撑迅速扩大的业务数据需求,在数据规模、安全、效率、数据备份、甚至数据中心的能耗要求等各方面都捉襟见肘。提供高效的数据服务成为信息社会的新产业和发展方向。

需要强调的是,必须抛弃那种小农思想即自我封闭的数据信息建设模式,但也要警惕草率上马数据中心建设项目的热情。近年来,作为绿色产业标志性产业的第三方数据中心服务市场发展迅速,在这一趋势下,有必要在建设初期就规划好数据中心建设布局,千万不要盲目建设。

在数据中心的产业化建设上,要热情,更需要冷静,还需要智慧和远见。

数据中心范文7

数据中心“不差钱”

先看看哪些国内外的公司又在数据中心领域“烧钱”吧!

亚马逊AWS近日宣布,将在瑞典斯德哥尔摩建立一个数据中心群,目标是进一步扩大云计算服务区域。亚马逊AWS的服务目前覆盖12个地区,计划未来还将增加5个地区。

到2017年底,谷歌计划在全球建设12个新的数据中心,以扩展其云平台服务的空间。届时,谷歌的云平台将覆盖全球15个地区。

据悉,微软公司很快也将在法国,以及美国的几个州增加新的数据中心。

阿里云、腾讯云都加快了“出海”的步伐,在海外布局数据中心节点,将其云服务的触角伸向海外。

2016年11月,万国数据成功登陆美国纳斯达克,当时外界最关注的题之一就是万国数据募集的资金将会以多快的速度投入到数据中心建设中。5月初,万国数据的2017年第一季度财报显示:第一季度,万国数据净增7000多平方米的数据中心总签约面积;深圳五号数据中心的收购项目正在顺利进行中,这将增加在建数据中心面积1万平方米;近期正在新建的北京三号数据中心,将新增4000多平方米的数据中心面积;运营中与建设中的数据中心数量也由2月公布的14个增加到了16个。

新扩建数据中心或是发生在数据中心领域的并购、重组、上市等新闻不绝于耳。全球数据中心市场正在蓬勃发展。

Gartner较早前的一份统计报告显示:全球IDC的市场规模从2010年的183.2亿美元迅速扩张到2015年的384.6亿美元;从2010年到2015年,中国数据中心市场的规模增长了近5倍,年均增长率超过30%,2015年中国数据中心市场规模已达到492.4亿元。

近两三年,中国数据中心市场的发展仍然保持上升的趋势。赛迪顾问的数据显示,2015年至2019年,中国数据中心IT投资保持继续上涨的态势,2019年数据中心市场规模将达到3640亿元。

在中国,数据中心是刚需,这一说法已经产生了很多年。特别是随着云计算、大数据、移动互联、物联网等在中国的兴起和快速普及,国内大型和超大型数据中心建设如火如荼。甚至曾经作为地产商业巨头的万达集团,也已形成了商业、文化、网络、金融四大产业集团,并早在2015年就建成了成都云基地。最近,万达又宣布与IBM合作,在其云数据中心部署IaaS、PaaS、认知技术、区块链和物联网等。

我们看到加入数据中心大潮的厂商越来越多,很多甚至是从房地产、制造、商贸等领域跨界而来。这也造成人们的担心:数据中心建设是否过热?是否会出现大量数据中心资源闲置的情况?

投资热的背后是什么

在探讨数据中心建设是否过热之前,我们先了解一下为什么数据中心市场发展如此迅猛?

从大的时代背景来看,我们已经步入了数字化时代。在企业的数字化转型过程中,IT或者更具体的说数据中心成了企业转型的动力和最重要支撑。而且,在企业业务发展的过程中,IT不再是以往被动的、辅助的角色,而成了主角,可以促进业务的创新,直接为企业创造价值。

正是基于此,我们应该重新审视IT或者数据中心的地位和重要性,想想应该通过怎样有效的方式充分发挥IT或者数据中心在企业云化和数字化转型过程中的作用,并深入挖掘其价值。

传统行业正在快速IT化。IDC的统计数据显示,67%的全球Top 1000企业已将数字化转型作为核心的战略。通用电气首席执行官Jeff Immelt(杰夫・伊梅尔特)表示,通用电气已经成为一家数据和软件公司。AT&T首席战略官及技术和运营总裁John Donovan(约翰・多诺万)认为,面向未来的数字化运营一定是建立在“软件化”的平台之上,并需要重新定义整体架构和所有业务。未来,能够在商业市场大展拳脚的可能都是“IT公司”,也就是能够玩转IT的公司,就像通用电气、AT&T一样。

数据中心的发展与IT软硬件的发展是同步的。Gartner预测,在软件与IT服务收入增长的推动下,全球IT支出将于2017年达到3.5万亿美元,相比2016年的3.4万亿美元增长2.9%。

赛迪顾问的报告显示,2015年,中国IT市场增长超过12%,规模接近1.5万亿元;未来3年IT市场仍将保持10%以上的增速,IT领域将出现新的驱动力、新的IT基础设施,以及新的生产要素和新商业模式的供给,新的产业变革时代将到来。

在企业实现数字化转型的产业变革过程中,数据中心的发展正呈现出大型化、集中化的趋势。企业业务的快速发展,特别是云计算、大数据、移动互联、社交、物联网等新兴应用的出现,让传统的小规模、分期、低能效的数据中心捉襟见肘。

目前,全球数据中心的建设规模不断扩大,许多地区的超大型数据中心的规模甚至达到数十万平方米。从市场接受度来看,数据中心行业正在经历一次洗牌,用户更愿意选择技术力量雄厚、服务体系上乘的数据中心服务商。

特别是随着云计算的兴起,业务的增加、服务范围和地域的扩展等,云数据中心的规模越来越大。未来的数据中心将朝着全球化、国际化、规模化的方向发展。

不过,数据中心规模的扩大,并不意味着数据中心越来越“笨重”,反而因为云计算等技术的应用,变得越来越轻,越来越灵活和自动化、智能化,而且数据中心的拥有者越来越注重数据中心的高能效和绿色化,一些大型云数据中心的PUE值也越来越低。

文章开头提到的那些在数据中心建设方面不遗余力的企业,其背后往往是第三方的数据中心服务商或云服务提供商。虽然许多大型企业由于业务发展的需要,仍然在持续建设自己的数据中心,但是有数据显示,数据中心外包服务是大势所趋。

现在,政府已经很明确地提出,尽量采购社会化的服务,而不是自己建设数据中心。许多伴随着云计算、大数据诞生和成长的中小企业、创业企业本身就“长”在云上。比如,一款由中国人设计的社交App――musical.ly覆盖了全球155个国家,拥有1.2亿注册用户。它的IT就建在亚马逊AWS上,自己没有一台服务器,整个IT运维团队也只有3个人。我们在市场中也逐渐看到一些传统行业的企业,比如制造、能源、零售、教育、医疗等,也逐渐走上了外包加云计算的演进路线 。

毋庸置疑,云化是数据中心市场蓬勃发展的一个非常重要的推动因素。有专家指出,企业数字化的本质就是业务全面云化。云服务从业者逐渐增多,云计算生态链日益完善,越来越多的企业开始走向并深入云计算。RightScale 2015年的调研数据显示,已经有88%的企I在不同程度地使用公共云,大多数企业未来会将更多的应用迁移到云端;55%以上的企业表明,当前至少有20%以上的应用是构建在云兼容架构上的,可以快速转移到云端。

赛迪顾问的数据显示:2014年到2016年,中国云计算整体市场保持快速增长的态势,2016年的销售规模达到2797亿元,增长率为41.7%。从产品结构来看,云计算基础设施所占比例最大,达到60.2%。

云计算数据中心的建设是当前数据中心市场的一个热点。云计算在中国市场不断加速地大规模部署,进一步提升了用户对于高性能数据中心解决方案的需求。对于云计算数据中心的定义,以及建设标准,业内一直在研究和论证。

数据中心是重要的基础设施和资源。就像“要想富,先修路”所说的,企业快速、健康发展的前提是,必须拥有稳定、可靠、持续供应的数据中心资源。数据中心是一个需要持续进行投入的领域,并要根据应用需求的变化,随时进行调整和优化。

在很多行业,基础设施先行都是“硬道理”。比如,电信市场的发展要依靠大规模铺设光缆,投资建设基础网络;在石油行业,大规模投资管线网络的建设是前提;交通运输业更是如此,大量轨道交通基础设施、机场的建设要先行一步。

在IT领域,基础设施市场的发展总是领先于应用市场的发展。企业的云化和数字化转型,依靠的是数据中心等基础设施的完善和优化。

抓住这次的热潮

中国数据中心市场一直在快速发展,并在其中经历了几次发展的高潮。得益于互联网的大发展,早在2015 年,以电商、社交、游戏等细分互联网应用为主的中国互联网市场稳步扩大。在这一时期,不仅腾讯、阿里、百度等互联网行业巨头快速扩张,许多新兴的互联网创业公司,以及向互联网转型的各类传统企业都是数据中心建设的积极参与者。互联网企业数据中心的规模化、标准化、分布式等对机房的建设、IT设备的采购和应用都提出了新的要求,“去IOE”,以及整机柜交付、软件定义等新的产品和交付方式快速兴起,并成为其他行业学习和借鉴的榜样。

有专家指出,未来几年,互联网行业仍将成为数据中心需求的主体。互联网行业企业应该抓住这一有利时机,根据自己的特性和需求,做好未来的战略方向规划,让业务再迈上一个台阶。

我们看到,虽然有些企业将数据中心向偏远地区迁移,但北上广等一线城市和沿海地区仍然是数据中心需求旺盛的地区,毕竟这里有庞大的客户群。在中国,重要的经济和人口中心都是数据中心的黄金地段,大型公司通常会在这些中心区域设立总部或分公司,并希望附近有数据中心。同时,也有很多当地的小型企业在寻求数据中心空间,降低网络成本。此外,经济中心的电信市场具备更多的透明度、可用的熟练劳动力,以及完善的基础设施(特别是电力传输),这些都是数据中心发展的重要支撑因素。

从财报我们看出,万国数据基础设施资源的扩张速度非常快,深圳五号数据中心目前拥有1万平方米的在建面积,预签约承租意向率已达50%。另外,万国数据新增的北京三号数据中心预计将于2018年上半年投入运营。

在第三方数据中心服务市场上,依旧是百花齐放、百家争鸣的局面,既有三大运营商,也有像世纪互联、 万国数据、中金数据这样老资格的数据中心服务商,还有BAT企业,以及越来越多的云服务提供商。随着时代的变化,用户需求的变化,以及新技术不断涌现,数据中心服务市场比拼的不再是单纯的数据中心规模大小,或者服务商本身的资历,而是一种综合实力的体现,除了数据中心的优质资源、运营的丰富经验以外,还包括创新的观念和意识、适合不同用户需求的新型产品和服务、技术创新的能力、新的商业模式、全国乃至全球化的完善布局,以及整体生态系统的构建等。

对于那些已经在这一市场上摸爬滚打了多年的数据中心服务商来说,绝对不能吃老本,更应该与时俱进,用新的思维、新的技术、新的模式,不断完善和扩大现有的业务格局,打造更具有差异化的核心竞争力,这样才能实现可持续发展。

赛迪顾问预测,2017年至2019年,中国数据中心市场仍会保持平稳增长的态势,增长率接近20%;模块化数据中心市场将成为投资热点,目前大型模块化数据中心的占比已近50%;2019年,在云计算的推动下,我国模块化数据中心的整体规模将达到157.9亿元。

基础设施先行

在云计算刚刚兴起时曾经出现过“数据中心过剩论”,大家感觉应用上线的速度跟上不数据中心建设的速度。今天,在云计算、大数据等已经上升为国家战略,以及各种规模和类型的企业都在积极探索云化道路的时候,我们又看到了所谓的“数据中心烧钱热”。有需求才有投资。现在人工智能、物联网、超算等的蓬勃发展,对于数据中心的发展来说又是一个利好。基础设施领域的投资热,预示着整个市场将有更大的发展。

数据中心范文8

数据中心需要的是能源利用效率更高、更有利于环保的IT产品,要将数据中心构建成一个绿色的“生态系统”。

周末闲逛北京南锣鼓巷,除了各具特色的一家家咖啡馆,另外一幅场景也吸引了记者。工人们正在紧张地为胡同大杂院里各户安装电表,据了解这是北京老城区“煤改电”工程的一部分。“煤改电”对于老百姓而言带来的是方便,对于整个城市而言则是减少了有害气体和温室气体的排放。

对于IT和信息产业来讲,技术发展的价值取向已经发生重大改变。无论是处理芯片技术、网络技术、存储技术,还是软件架构的开发与应用,整个业界已经开始把温室气体排放、能耗和环境问题放在了重要位置加以考虑。

《计算机世界》报社于2007年7月发起了“中国绿色IT行动倡议书”,希望以此推动IT产品和整个信息产业接受绿色环保的概念,从而身体力行地推动绿色环保。

作为绿色IT倡议行动的重要组成部分,2007年10月18日,由《计算机世界》报社、《服务器世界》杂志和《网络存储》杂志共同举办的“2007绿色数据中心大会”在北京召开。致力于数据中心建设的众多IT领袖和技术精英参加了本次大会,围绕数据中心绿色节能趋势以及相关的技术与解决方案进行了热烈探讨。

数据中心能耗惊人

根据Power and Cooling Survey 2006调查显示,美国数据中心每年的电力成本约33亿美元,而到2010年,这些数据中心的服务器数量还会以每年增加50%的速度扩容。另据Gartner预计,50%现有数据中心的电力和冷却能力将难以满足高密度设备的需求。

目前,数据中心的能耗已经达到了惊人的程度。不但数据中心可用的冷却和电源容量已经接近极限,而且数据中心的物理空间也发展到了极限。同时,它所造成的巨大成本也让企业的经济与社会责任压力日益加剧。

IBM亚太数据中心及智能化集成服务总经理袁东坡表示,能耗的增加给数据中心带来了三大直接问题: 一是机房过热,二是电力供应不足,三是计算机中心的空间不够。

长期工作在数据中心的中国工商银行数据中心系统部副总经理黄文宇对此更是深有感触: “随着工商银行业务的不断扩展,数据中心的容量也在迅速增加。以前,北京的数据中心容量是10TB,现在是400TB。我们发现,以前宽敞的机房现在很拥挤; 以前比较充足的空调现在也不太够用了; 以前进入机房要穿外套,现在穿着短袖衣服进去都会感觉热。”

能耗造成的巨大成本压力,不但让各个数据中心的管理者们有些力不从心,而且IT设施的成本与IT设施的复杂性也令数据中心的业务主管感到焦头烂额。

戴尔(中国)有限公司服务器产品经理李毅表示,根据戴尔公司进行的一项调查显示,对于数据中心而言,IT基础设施维护越少,企业创新的机会就越多。但是,非常令人遗憾的是,目前大部分数据中心由于受到系统复杂性的制约,以及数据量的不断增加,必须将大约70%的IT预算用于维护现有设施,而只将30%的IT预算用于创新或推动企业新计划。

数据中心“绿”在何处

既然数据中心对于“绿色”的需求如此迫切,那么数据中心到底该如何“变绿”呢?

有学者表示,数据中心要实现“绿色”,必须有多方面的考虑。数据中心的机械、照明、电气和计算机系统要有最大化能源效率和最小化环境影响。

李毅认为,为了迎接数据中心能源危机带来的巨大挑战,数据中心需要的是能源利用效率更高、更有利于环境的IT产品,要将数据中心构建成一个绿色的“生态系统”。

如何使数据中心成为一个绿色的“生态系统”?袁东坡认为,至少要经过五个步骤:“首先,用户本身应该对自己的数据中心进行‘健康’诊断,详细了解现有的设施情况,摸清数据中心耗能的实际水平; 第二阶段是建设,也就是规划、建设或更新一个更高能效的数据中心; 第三阶段我们称之为虚拟化,不是利用硬件,而是利用软件进行虚拟化,它可以节省大量能耗; 第四阶段是管理,目前有很多种管理办法或者管理软件,可以帮助用户对数据中心电能的消耗进行管理; 最后一个步骤就是数据中心制冷,采取比传统的空调制冷更加有效的措施。IBM就有一个在数据中心内外采用水冷制冷的解决方案,它能够在数据中心的制冷环节实现非常高效率的节能。”

袁东坡介绍,依照上述五个步骤,IBM目前正在美国科罗拉多州建设新一代的绿色数据中心,这个数据中心是在现有机房的基础上进行了加倍扩充,面积达到3万平方米,每平方米的耗电量达到1000瓦。但是,由于采用了虚拟化技术、风力发电以及先进的水冷制冷技术,使这个数据中心的能耗与以往相比节约了50%左右。

对于绿色数据中心的理解,希捷科技中国区总经理杨建初认为,关键在于“平衡”。“服务器和数据设备占据了整个数据中心的大部分耗电量,如果它们能够不断地降低能耗,那么对于构建绿色数据中心非常重要。但是,天下没有免费的午餐,必须很好地评估和平衡耗电与性能的双重要求,才可能实现真正意义上的绿色。”杨建初说。

虚拟化是关键

在问及什么是绿色数据中心的核心问题时,多位数据中心的管理人员都表示,数据中心节能降耗相关的技术和方案其实是多元化的,其中非常重要的一点就是虚拟化。

IBM系统与科技事业部系统架构师梁建球表示,虚拟化可以为数据中心的节能降耗带来明显效果,因为虚拟化可以提高IT设备的使用率,尤其是服务器和存储设备。对于最终用户来讲,虚拟的资源跟原先真实的资源是一样的,同样的界面、同样的功能,只是属性变化了,变得更容易变化和扩展。

具体而言,虚拟化技术如何实现数据中心的节能降耗?梁建球认为,虚拟化技术的做法就是合并服务器,它可以把在大量的、低端的、使用率比较低的服务器上运行的应用程序,合并到少量的高端服务器上,从而提高服务器的使用率,能耗自然也就降低下来了。

梁建球打了一个生动的比喻,“如果将我们每个人看做是一个虚拟化的服务器,就相当于每个人上班开自己的私家车。这么多人上班,所要消耗的路面资源和能源都相当高,这是非常不环保的。那么,怎样节省对能源的占用呢?最有效的办法就是大家乘坐地铁、公交车等公共交通设施上班。这样就可通过搭载少量的、容量大的交通工具,实现每个人的上班目的。还有一些更加极端的情况,上下班高峰期间,乘客像罐头一样被塞进公共交通车辆内,尽一切可能提高每一个车厢的使用率,整体节能降耗的效果就会更加明显。最终也还是实现了让大多数人准时上班,这和数据中心对于应用需要的响应时间很类似。”

梁建球还表示,虚拟化技术使得数据中心智能用电控制管理成为可能。数据中心的虚拟机器可以从一个物理机器移到另外一个物理机器上面,用户只要通过硬件和软件的配合,硬件上支持虚拟化,包括支持不同的用电模式,再利用软件进行部署,实现工作量迁移自动化部署,最终达到对用电的智能化管理。只有对用电情况了如指掌,数据中心才可能找到节能降耗的突破点,否则将很难找到“省电”的机会。

梁建球介绍,美国匹斯堡大学的医疗中心通过虚拟技术将1000台低端服务器上的应用集中到20台IBM System x服务器上运行,不但提高了整个数据中心的容量,同时也大幅降低了用电量。

日立数据系统有限公司亚太区存储软件解决方案总监郭智仁表示,服务器的虚拟化、网络的虚拟化、存储的虚拟化都将在绿色数据中心工程中扮演重要的角色。未来,通过虚拟化可以把数据跟存储以及运算隔开。对用户而言,不必知道自己的数据存放在什么地方、存放在哪一个磁盘。用户可以越来越快地掌握内容的变化、保护和管理,并能实现对数据存储动态的配置,达到负载均衡。

存储也要绿色

数据中心一方面要应付各种应用的计算,另一方面还担负着存储、管理和传播数据的重任。所以,从存储入手也是降低能耗的重要途径之一。

CopanSystems公司亚太区副总裁MartinDarling认为,“判断一个数据中心绿色与否的两个要素分别是: 能源效率,就是每度电到底能够形成多大的存储容量、能够支持多大的存储容量; 二是需要多大的空间,要实现这样一个存储容量,你的空间是否合理。”

杨建初则表示,虽然分析机构StorageIO Group的数据显示,存储设备目前占用整个数据中心硬件部分37%~40%的能源消耗,但是能耗和系统性能又是密不可分的。性能越高所消耗的能源也就越多,降低能耗不等于降低性能标准。对于存储而言,用户必须有所取舍,或者说,必须找到一个降低能耗的“平衡”方法。

杨健初认为,寻找这一平衡方法需要考虑四方面的内容: 首先,数据中心管理者要清楚整个系统因为能耗带来的具体发热量和所需要的冷却能力,这样才可能更好地构建数据中心; 第二,要考虑可用性,整个数据中心系统必须是可靠的,不能“三天打鱼、两天晒网”; 第三是成本,随着IT数据爆炸式的增长,大家点点鼠标就可以获得大量的信息和数据,其代价就是在后端的服务器系统、数据中心必须提供非常强大的、海量的数据内容; 第四是社会责任,电能的消耗会带来二氧化碳的排放,所以节省电源对于减少二氧化碳的排放有着重要意义,这也就对企业的社会责任和更低的总体拥有成本(TCO)提出了挑战。

基于以上四方面的考虑,杨健初表示,希捷在数据存储节能降耗方面也有相应的不同层面的考虑。“在硬盘驱动器的组件层面,通过对马达、电子零件和控制电路进行优化设计,降低硬盘所需的功耗; 在硬盘层面,我们会更多考虑如何实现更小的体积、如何有助于空气对流,以便在单位体积内达到最大的容量,而且不增加冷却的压力; 在系统层面,主要考虑如何提高电能使用的有效性和整个数据中心的效率。”

采访手记

“绿色”的标准缺位

来自业界的专家,带来了各种实现绿色数据中心的手段与方案,让人听得“热血沸腾”,感觉“绿色”已经浮现在眼前。但是回到现实,“绿色”距离我们似乎总是一步之遥。

“要实现绿色,既容易也不容易,‘花多少钱办多少事’,关键还是在投资。”一位数据中心的管理者如是说。

北京气象局为奥运会服务的数据中心曾经想采用水冷制冷系统,但是由于安装、维护的成本问题,不得不仍旧采用传统的空调制冷方式。在面对长期“绿色”还是短期经济效益的两难选择时,有很多数据中心的管理者们大都选择了后者。一位CIO曾经告诉记者,他们在搭建数据中心时,已经考虑到能耗的问题,但是由于业务与领导的要求,不得不暂时隐瞒了能耗问题,而是在事后想办法解决每年的高额电费。

造成上述这样尴尬局面的重要原因是,目前没有针对数据中心性能、功耗比的强制性标准,“绿色”完全是靠数据中心管理者们的“良心”,更多是对数据中心社会责任的考量。但是管理者们也是人,面对各种成本、政绩的压力,“良心”难免要有所偏离。这和许多地方的环境问题如出一辙,每个人都在强调为现在的行为负责,关系子孙后代的环保问题自然就不会优先考虑。

既然业界这么多有识之士已经认识到“绿色”数据中心的重要性,那就不要再像呼吁绿色GDP一样,多年以来一直是“雷声大、雨点小”,绿色数据中心需要一场电闪雷鸣的急风骤雨。(汤铭)

绿色数据中心获奖名单

倡导绿色数据中心杰出企业奖:

国际商业机器中国有限公司

戴尔(中国)有限公司

希捷科技有限公司

日立数据系统(中国)有限公司

倡导绿色数据中心杰出

企业领袖奖:

IBM大中华区副总裁及全球信息科技服务部总经理 张烈生

绿色数据中心建设杰出用户奖:

安莉芳(中国)服装有限公司

2007年绿色存储优秀推荐方案:

最佳解决方案奖:美国EMC公司、美国NetApp技术有限公司

数据中心范文9

严重的电力不足,使得机房凸显能耗危机,绿色数据中心概念骤然间从“起点”升至“沸点”。然而,用户对绿色数据中心概念是否接受?哪些技术和产品可以实现绿色数据中心的构建?建设绿色数据中心时面临的主要障碍是什么?在怎样的前提下,用户才会为绿色数据中心买单? 计算机世界联合IBM、历时两个月、遍访5大行业的100位CIO,了《2007绿色数据中心需求调查》,为你揭开谜底。

能耗危机

“北京网通的皂君庙机房,就因为供电不足的问题,不仅无法扩容,而且出租机架的绝大部分收入都用来付了电费。”北京网通数据中心檀君普直言不讳地对记者说: “北京绝大部分机房的供电都不足。”

在数据中心建设方兴未艾的中国,这绝非偶然现象。在本次调查中,仅31%的被访企业明确表示“没有容量不足的问题”。事实上,数据中心电力不足和电费高昂已经成为全球化的问题。据Gartner预测,至2008年年底,全球近一半的数据中心将无法拥有足够的能源和冷却装置,用以支持高密度的服务器和存储设备; 而到 2011 年,数据中心1/3以上的预算将是环境成本。

斯坦福大学的一项研究也显示,全球数据中心的能耗在2000~2005年间翻了一番,到2010年将再增75%。该研究以部署在美国的服务器和冷却系统为例,该系统在2005年消耗450亿千瓦时的电力,电费为27亿美元。而2006年全球服务器的能耗达到1230亿千瓦时,电费支出上升至73亿美元。

高能耗的问题,使得绿色数据中心概念骤然间从“起点”升至“沸点”。

能耗: 被忽视和被低估

62%的被访企业认为,其数据中心面临着诸如散热、供电、成本等问题; 23%的被访企业认为,其数据中心供电和散热能力不足,限制了IT基础设施扩展,或无法部署高密度计算设备; 有19%的被访企业认为,其数据中心的耗电量太大,费用无法负担; 有17%的被访企业认为,机房温度过高,影响了计算设备的稳定运行。

“原来我们一年的电费就几千元钱,不觉得是一个很重的负担。但现在电费可能翻了上百倍,变成一年100万元,整个机房的开销确实很大。”中石化总工程师吴正宏对记者说,“我们的机房是上个世纪90年代建的,到现在数百台服务器已经摆得密密麻麻,所以节能和环保问题就显得特别地突出。”

数据中心的耗电量太大、费用无法负担,的确已经成为CIO们必须面对的棘手问题。江西省电信公司相关人士就向记者坦承: “我们数据中心确实面临耗电量大的问题,但是没有办法解决。”

除了飙升的电费之外,最让CIO们感到寝食难安的是,因为供电和散热问题的存在,使得其IT基础设施扩展成为问题。在CIO们认为其数据中心最亟待解决的问题中,23%的被访企业认为,其数据中心供电和散热能力不足,限制了IT基础设施扩展,或无法部署高密度计算设备。另外,有17%的被访企业认为,机房温度过高,影响了计算设备的稳定运行。

一位知名证券公司的CIO就对记者说: “因为旧机房的布局和设计不合理,空调和制冷手段老化,加上机器设备摆放得非常拥挤,机房温度很高,我们面临着机器设备受损或者出现突发故障的潜在威胁。”

“建设绿色数据中心首先要建设安全的IT基础设施架构,这和盖楼是一个道理,稳定的地基会带来‘更高的回报’(楼层可以盖得很高、很稳定)。无论从数据安全,还是设备安全上来讲,这都是非常关键的。”中国再保险集团数据中心某工程师如此认为。

我们的调查统计与这位工程师的观点相同,企业CIO们对于数据中心的基础架构的安全有较高的关注度。有15%的被访企业认为,他们最亟待解决的问题是建立安全的IT基础架构。此安全性并不单指防火墙、IPS/IDS、入侵检测以及防病毒等网络安全防范措施。实际上,信息系统的可靠性、稳定性和可用性,以及硬件与软件系统之间的适用性也是他们所关注的重点。”

很多CIO都或多或少地意识到高能耗带来的问题。然而,值得注意的是,从我们调查的结果来看,只有不到5%的被访企业,可以清楚地说出数据中心的电费支出,绝大多数的企业均表示“不清楚”。比如,在制造业中,仅雅戈尔集团表示,其数据中心的电费一年的支出大约10万元,其余均表示“不清楚”。

针对这种情况,某业内知情人士分析说,目前多数企业的电费支出是统一由行政部门负责的,数据中心对电费支出几乎不承担任何责任,这在一定程度上将对数据中心的节能降耗形成阻力。

绿色: 被认知和被接受

被访企业对绿色数据中心有较高的认同度。受访的企业中有43%的CIO明确表示,了解并认同“绿色数据中心”。金融、电信、能源三大行业的被访企业对“绿色数据中心”的认知度和认同度明显高于总行业的平均值,其中金融为55%、电信为55%、能源为53%,均高出平均值10个百分点以上。

“绿色数据中心”从概念提出到各IT厂商的相继跟进,也就不到一年的时间。但是在这样一个节能环保的大趋势下,在各IT厂商的推动下,绿色数据中心从“起点”很快升至“沸点”: 无论是从芯片级入手提升服务器性能,还是改进基础软件架构效率,或者是改善机房基础设施环境,IBM、惠普、Sun、戴尔等 IT巨头纷纷提出各自的绿色方案,并且招数迭出。

比如,IBM很早就开始致力于节能降耗数据中心解决方案的研究,从纳米级的芯片技术到每年新建60万平方米的数据中心,从降低IT设备能耗到推出能源冷却装置,IBM的绿色理念可谓渗透到数据中心的每一个环节。随着IBM每年投资10亿美元的“绿色创新工程”计划的浮出水面,以及各式新型冷却技术的提出,IBM“押宝”绿色数据中心的信心越来越坚定。

IT厂商群情激扬,用户端是何态度呢?调查的结果多少让我们感到意外。虽然“绿色数据中心”概念刚刚提出,而且厂商针对此概念的推广还没有大规模展开,但依然有43%的用户明确表示,认同“绿色数据中心”概念。

很显然,“绿色数据中心”已经在用户中有了较好的亲和力,尤其是金融、电信、能源三大行业的被访企业对“绿色数据中心”的认知度和认同度明显高于总行业的平均值,其中金融和电信均为55%,高出平均值12个百分点; 能源为53%,高出平均值10个百分点。

“企业CIO也应当与时俱进,学习一些先进的技术和知识,我一直很关注绿色数据中心,并与很多IT厂商保持了很好的关系。”均瑶集团信息总监吴大为说。记者也了解到,那些对绿色数据中心认知度很高的企业,一般都与IT厂商有着较好的合作关系。

但也有极个别的被访企业认为,“绿色数据中心”只是IT厂商的新一轮炒作,对于企业没有什么实际意义。

就整体目标而言,企业用户大多认为绿色数据中心可以在降低IT使用成本、减少污染、更加环保、提高IT运营效率几方面改善企业的运营。其中43%的被访的CIO认为,绿色数据中心可能降低IT使用成本。

但值得注意的是,有19%的企业表示,对于绿色数据中心能给企业运营带来的改善表示“不清楚或不确定”。记者分析认为,这一方面是因为绿色数据中心的概念及其确切的内涵还不为用户们所了解; 另一方面是因为企业变得越来越冷静,对于新的概念、新技术和新的解决方案保持着一种谨慎的态度。

效果: 被关注和被质疑

调查发现,43%的被访对象认为,其对绿色数据中心的建设需求并不明确; 有20%的被访对象认为,构建绿色数据中心的最大障碍是没有足够的资金预算; 另有18%的被访对象认为,购买节能环保产品并不合算――在用户需求尚不太明确、厂商没有很成熟的产品和应用的情况下,绿色数据中心推广面临诸多障碍。

一些被访对象由于对绿色数据中心概念的内涵并不甚了解,因此对“绿色数据中心”是否真正能达到其要求心存疑虑。网通甘肃分公司有关人士就认为: “绿色节能的产品不一定能带来很好的安全可靠性,或者成本的降低。”

大多数的企业都认为,企业要选择绿色数据中心,必然要为节能、环保产品付出比普通产品更高昂的价格,而这些节能环保产品是否真的能“物有所值”或者说“名副其实”,他们并不太肯定。

有61%的企业在构建绿色数据中心时最大的疑虑是“产品是否真正能实现节能和环保”。上海一家电信公司数据中心的总经理愤愤地说:“刀片服务器、虚拟化技术、高性能计算以及其他一些先进技术和方案,能用的我们都用过,但是这些并没有给我们企业的节能降耗带来实质性的改善。”

尽管很多用户对“绿色效果”产生质疑,然而,我们从上述言论中不难观察到,用户们期望真正的“绿色”。“我们不可能仅仅因为能耗问题,在不考虑数据的安全性和投入成本的情况下,将其替换为一些能耗低、或是更高级的产品。” 中国再保险集团数据中心某技术人员指出,“绿色数据中心的概念的确很好,但就目前来讲,实现起来非常难。”

实际上,记者在采访中发现,像金融、电信这样“不愁钱”的行业,他们更关注产品的性能和安全性、稳定性。在金融、电信行业已经逐步完成数据大集中、建设企业级数据中心之后,这些大型和超大型的数据中心的风险也被集中和放大,而如何保障业务的连续性成为CIO们最为关注的问题。因此,企业在建设绿色数据中心时,对于产品的稳定性和可靠性要求很高。深圳电信相关人士就认为,“在硬件基本性能指标满足的前提下,谁最稳定、最便宜就买谁的。”

在通过与100位CIO交谈后,记者发现,其实绝大部分企业都面临着重建、改建或者是扩建数据中心的问题。无论以何种方式改善数据中心,都涉及到采购设备这一环节,然而“绿色节能产品”要进入用户们的采购清单中,尚属不易。

中石化总工程师吴正宏向记者表示: “对于关键应用,我们首先要看是否满足我的处理能力要求; 其次是看谁的设备更可靠、更稳定; 然后才是服务和能耗问题。我们肯定不会把能耗放在采购的第一位。能耗很低,但是不能满足我的计算需求,不行; 能耗很低,但是性能不稳定,总是出毛病,也不行; 设备出了毛病,技术支持不及时,更不行。”

面对上述用户的诸多言论,能耗问题好像变得微不足道,并不能给企业带来效益。但“绿色”真的只是一种概念鼓吹、没有效果吗?“其实不然。”中国石油集团研究院(BGP)数据处理中心总工程师赖能和曾算过一笔账: 从BGP的实际情况来说,如果要达到10000CPU的计算能力,考虑空间、照明、人员等环境因素和制冷设备冗余,总共需要HIROSS 99UA专业空调22台,约600万元的投资,另外还有2000万元的UPS及其他辅助设备投资。因为降耗节能是其数据中心非常关心的一个问题,BGP近几年已投入1300多万元,进行资源优化配置、技术改造,收到了近亿元的经济效益。

图一:数据中心亟待解决的问题

图二:企业对绿色数据中心的认知度和接受度

图三:企业构建绿色数据中心考虑的主要因素

图四:企业认为哪些技术可以实现绿色数据中心构建

图五:用户希望方案提供商提供哪些帮助

数据来源:2007年绿色数据中心需求调查,Sponsored by IBM

何处破冰?

对于企业数据中心来说,所有的数据存储和计算能力都基于各种IT设备,而每个数据中心的发展现状、能力水平也决定了企业能够在多大程度上保障其自身业务的高效运行。那么,数据中心建设和管理的现状如何?用户都在关注什么样的新技术、新产品?而在建设和管理数据中心时,用户最关注的点又是什么?

呼唤整体绿色方案

由于绿色数据中心的建设是一项系统、复杂、高难度的工程,因此企业在构建绿色数据中心时,对解决方案提供商有着很强的依赖性。一方面,在原有的老数据中心的升级和改造中,希望借助IT方案商为其提供最佳的优化治理方案; 另一方面,对于新建的数据中心,用户更是希望看到在性能、安全、节能、环保、成本等多方面都能做到最优化的完整的解决方案。

银联金融认证中心相关人士就呼吁,在数据中心改建的时候,希望厂商能分别提出解决方案,但是在新建的时候,希望厂商能提供完整的解决方案。

针对部分用户抱怨自己做了改善但能耗依然没有下降的说法,有业内专家指出,这可能是因为这些企业没有针对自身做一个彻底的改善,只改头不改尾的方式,就好比一个衣衫褴褛的人,即便是穿上一双漂亮的鞋子,也不会改变整体形象一样。

调查显示,61%的企业希望厂商提供整体绿色解决方案。因为,到目前为止,大多数关于绿色技术的努力都集中在某一点的解决方案上,而这也正是“绿色”不被用户广泛接受的原因之一。

北京市科学技术学会认为,“我们目前不会对绿色数据中心进行投入,要等到技术成熟、有成功案例时才会考虑。”中山证券公司也持相同观点。

用户正在变得更加理性,他们不再会紧跟IT厂商所提出的理念,也不再会为一些他们认为“不实在”的技术和产品买单。目前来看,绿色数据中心还没有很好的应用案例,因此客户在一段时间内都会持观望态度。

中国气象信息中心总工程师洪文董认为,建设节能型的数据中心最关键的一步就是要考虑到机房的扩展能力,这里面除了包括各设备的扩容量,还包括机房本身的扩展能力。根据中国气象多年来设计数据中心的经验,起码要保证数据中心有至少5年的扩展能力,才能在新技术和新产品出现时迅速跟上。

虚拟化和刀片受欢迎

“把几十台计算机变成一台计算机,可以大幅减少供电、冷却、布线及管理等方面的支出。虚拟机耗用的处理功能是物理计算机的5%~10%,且虚拟化技术通常能让企业的应用系统运行得更快而不是更慢。”中石化总工程师吴正宏说。

目前,虚拟化已经成为IT业最热门的技术之一,越来越多的IT厂商加入到虚拟化的潮流中来,而随着虚拟化技术的不断成熟,用户端逐渐认识到虚拟化技术对于企业IT系统的贡献,虚拟化正逐渐从概念走向实用。计世资讯认为,虚拟化技术使传统的企业IT基础架构正在逐步向虚拟化的IT环境演变。

我们的调查也显示,在选择什么样的技术构建绿色数据中心时,55%的受访企业选择了对服务器和存储实施虚拟化技术。金融和政府的数据中心对服务器、存储虚拟化技术的关注度最高,分别达到了75%和62.5%。厦门劳动与社会保险管理中心认为,“在有安全性保证的前提下,服务器、存储的虚拟化技术是一种比较好的方案。”

数据中心范文10

关键词:云计算;网络结构 ;虚拟网络;多用户数据中心

中图分类号:TP 393

The summarize of data center network structure

Chengrongbin , Wang hong ,Du yong, Cheng hui

College of Computer National University of Defense Technology, Changsha, Hunan,

Abstract: Network structure of data center is the basis of data center , Network structure is in relation to the network configuration, performance, management and maintenance of the data center,etc.This paper points out the lack of the traditional network structure of data center and make a analysis and comparison of several current network structure that the mainstream data centers have adopted.And introduces the demands and characteristics with the network structure of virtualized multi-tenant datacenters in cloud computing environment .Last, makes a forecast of the future and evolution of the structure of data center network.

Keywords: Cloud computing, Network structure, virtualized network, multi-tenant datacenters

引言

随着互联网和信息技术的迅猛发展,数据中心的数量以及数据中心的节点数目都在成倍增长[17],随着数据中心的规模扩大和发展,传统的以交换机为中心的基于树状的三层数据中心网络结构难以满足大规模数据中心的要求[5] [11] [12] , 新的数据中心网络结构被研究提出并部署。DCell[2]、 BCube[3]、Portland[4]、VL2[5] 等多种新型数据中心网络结构被提出广泛部署和应用于当前的商用数据中心。中国科大刘小茜,杨寿保等人提出了一种“雪花结构”新型的数据中心网络结构,可以在较短的平均路径内实现节点间路由机制,具有较小的网络开销[10]。云计算环境下的虚拟化多用户数据中心被建设和应用,对数据中心的网络结构提出的新的要求和挑战。原有的数据中心网络结构没有一种带宽分配的机制来保证每个用户的带宽和网络性能,新的基于虚拟网络的数据中心网络结构被研究提出和应用。Second Net[6] ,Seawall[7] ,Virtual Cluster[8]和Virtual Oversubscribed Cluster[8] 等被研究提出并应用部署。此外,Butterfly networks, Bruijn[9] 等数据中心网络结构也被研究提出过。

一 传统的数据中心网络结构

数据中心网络结构是数据中心的核心,它将大量服务器使用交换机和路由器等网络设施连接起来,组织成具有高带宽、高可用性、高可靠性以及负载均衡的服务器网络,对外提供计算、存储等服务。传统的数据中心网络是典型的三层树结构[6]。以交换机为中心,边缘层交换机、汇聚层交换机和核心层交换机分别构成树的节点,服务器构成叶节点。

这种网络结构中,根节点带宽会成为瓶颈,存在以下缺点。首先,带宽受限,在汇聚层,其连接边缘层的带宽远远大于连接核心层的带宽[5]。其次,扩展性差,因为核心层的设备端口数目是有限的。再次,可靠性差,如果汇聚层或者核心层的设备发生故障,网络性能会大大降低,而且根节点故障会引起单点失效。通过增加核心层交换机,虽然可以提高根节点的可靠性,但某一时刻只有一个其中根节点在运行,不能解决跟节点瓶颈的问题。

二 当前常用数据中心网络结构的分析和比较

随着数据中心规模的扩大,传统的数据中心网络结构成为限制数据中心应用的瓶颈,DCell[2]、 BCube[3]、Portland[4]、VL2[5] 等多种新的数据中心网络结构被研究提出和应用部署,下面分别做出简单介绍并加以比较。

DCell[2]是一种使用微型交换机和有多个网络端口的服务器递归定义构建的架构。在DCell中,服务器通过双向的通信链路连接到其他服务器和几个小型交换机,高层次的DCell通过低层次DCell递归建立的。DCell使用普通小型交换机进行扩展,网络规模随着服务器节点度增加会成倍地增长,一个小节点度(比如4)的DCell可以支持多达数百万台服务器,而无需使用核心交换机/路由器。下面的例子说明了如何构造不同层次的DCell。

DCell0是构建大的DCell的构建块。它有n个服务器和一个微型交换机(图2中 DCell0 的n=4)。DCell0的所有服务器都连接到微型交换机。它由5 个DCell0网络构成,每个DCell0作为一个虚拟节点,这些虚拟节点形成一个完整的图形。

2 BCube

BCube[3] 是一种典型的超立方型结构,由Microsoft Research Asia于2009年提出,是在DCell结构的基础上的一个改进。BCube也通过使用低端、廉价的交换机将服务器进行互联,构成超立方结构。这种结构也是递归定义的:首先,把n个服务器连接在一个n个端口的交换机上,构成一个结构BCube(0);再将n个BCube(0),按照一定的连接方式连接到n个n端换机上,形成BCube(1);以此类推,BCube(k)由n个BCube(k-1),连接到nk个n端换上,是BCube(1),n=4时的BCube图:

3 PortLand

PortLand[4]采用胖树结构,是在A Scalable, Commodity Data Center Network Architecture[14]上提出的胖树结构上的改进。PortLand使用许多小型的交换机组成大规模的通信网络。网络结构的组织:k叉的胖树,共有k个pod,每个pod有2层,每层有k/2个交换机,低层的交换机连接k/2个主机,剩下的k/2个接口连接到聚合层。每个核心交换机有一个端口和一个pod相连,第i个端口和第i个pod相连。

胖树结构解决了传统的树形结构带宽利用率低、带宽不统一的问题。在胖树结构中,节点之间可以全带宽通信,根节点瓶颈问题得到解决。

4 VL2

VL2[5]的主要特点是提供了一个巨大的第二层网络,把来自外部网络的请求尽量均衡地分配给底层的服务器群。第一层为服务器群,通过ToR(Top of Rack)交换机接入第二层网络,如图5所示。VL2的第二层连接方式,通过使用聚合层交换机和中间层交换机的交叉连接形成一个平面的、巨大的第二层网络。VL2使用两套IP地址,模拟出一个巨大的二层网络,用来保证服务器之间的流量均衡。

上述几种数据中心的网络结构相比传统数据中心网络结构,增强了数据中心的节点的连通性,容错性更好,更容易实现负载平衡,由于使用小型交换机就能构建网络,使得数据中心的网络建设成本降低,扩展性更强。

(一)可扩展性更强

DCell和BCube结构都采用的是低端小型交换机递归定义的结构,当增加新的服务器时,不会影响已有服务器的运行,也不需要要改变原有网络结构。DCell还能为各种各样的服务提供比传统树结构更高的网络容量。另外DCell可以增量扩展并且在不完全结构的情况下表现出上述性能,降低了数据中心的成本,增强了数据中心的扩展能力。

(二) 容错性更好

容错性是指数据中心网络自动发现,容纳和修复网络故障的能力[13]。在大规模数据中心中,网络节点故障发生的几率非常高。BCube的结构特点、地址规则和BCube内部的一系列协议,保证了BCube在数据中心网络内部设备(包括服务器和交换机)故障时,整个数据中心的性能下降良好。

(三)负载均衡良好

大规模数据中心需要在各个服务器之间实现负载均衡,PortLand提出伪MAC地址(PMAC),良好地支持虚拟主机迁移,使得不必改变虚拟机的IP地址,即可完成虚拟主机迁移,从而实现负载均衡。VL2提供一个巨大的第二层网络,把来自外部网络的请求尽量均衡地分配给底层的服务器群。VL2主要强调敏捷――服务器群中的动态的资源分配,不论服务器数目的增减或虚拟主机的迁移,任何服务器可被分配给任一个服务,提供服务器之间的高带宽,各种服务之间的性能分割,VL2很好地解决了负载均衡的问题。

三 虚拟化大规模多用户数据中心网络结构

随着虚拟技术被广泛应用于数据中心,云计算[15] [16] 环境下的多用户大规模数据中心成为市场的需求。多个用户共享整个数据中心的网络,这使得数据中心内出现拒绝服务攻击和性能冲突的机会大大增加[7] 。现有的网络结构难以实现多个用户的隔离,对各个用户做到带宽保证和性能预测。基于虚拟网络的数据中心新型网络结构如SecondNet[6],Seawall[7] ,Virtual Cluster[8]和Virtual Oversubscribed Cluster[8]等被提出和应用。

1 SecondNet

SecondNet[6]由Chuanxiong Guo, Guohan Lu等提出。他们提出在云计算环境的多用户数据中心里采用virtual data center (VDC) 作为资源分配的单元。为了实现这种分配,在现有的基础网络结构的基础上,采取一种集中的VDC分配算法来实现有带宽保证的虚拟机到物理机的映射。SecondNet采取的是port-switching source routing (PSSR)路由机制,这种端口源路由机制,不需要交换机保持每一条输入的带宽预留状况,由物理服务器来保持整个网络中的带宽预留和使用状况。SecondNet把数据中心的应用服务类型划分为三种,数据密集型的应用如web services,分布式计算等有严格的带宽要求的应用定义为type-0,文件备份等没有带宽要求的应用定义为best-effort,这二者之间还定义了一种服务type-1,用来描述那些只在局部有带宽要求的服务。三种服务类型的数据包分别有不同优先级,type-0最高,best-effort最低。在数据包前段加入路由路径和服务类型,通过采用这种保证高优先级的服务最先使用带宽的机制来实现带宽预留和保证。

2 Seawall

Seawall[7] 由Alan Shieh,Srikanth Kandula 等在《Sharing the Data Center Network》一文中提出。文中指出分享数据中心网络可以通过升级数据中心的网络结构来实现,但是硬件改动和部署代价太大,而且花费的时间太长,而且一旦部署之后,要改变也难,所有采用基于软件的解决方式。在虚拟机的通信之间加入一个中间层,这个中间层能给某一条链接上的每一个实体(实体包括虚拟机、进程,或者端口的集合但是不包括整个客户或者虚拟机簇)的通信定义一个权重,每个实体按所占的权重分配带宽。某条链路L上的某个实体(k)所占的权重为wk每一个实体所占的带宽量为:

这里Active(L) 是指这条链上活跃的实体。下图就是Seawall的分配实现过程:其中灰色部分就是新增加的层。

3 Virtual Cluster和Virtual Oversubscribed Cluster

Virtual Cluster[8]和Virtual Oversubscribed Cluster[8]是由Hitesh Ballani,Paolo Costa等提出的两种虚拟网络抽象模型。Virtual Cluster的结构如下:

Virtual Cluster是一种没有超额订购的网络抽象,用户需要N个虚拟机,每个虚拟机和虚拟交换机之间的带宽要求是B,虚拟机总的带宽需求是N*B。

Virtual Oversubscribed Cluster的结构如下:

相比Virtual Cluster ,Virtual Oversubscribed Cluster没有那么密集的联通性,用户需要N个虚拟机,被分成S组,每个虚拟机和Group Switch之间的带宽需求是B,每个组和根交换机之间的带宽需求是B、= B*S/O,其中O是超额订购因子。 这两种虚拟抽象分别满足不同的应用类型,通过采用一种贪婪的虚拟机分配算法,在数据中心的基础网络上尽量多的抽象出多个抽象模型满足多个用户的需求。从而保证了数据中心基础物理网络的高利用率和每一个用户的带宽保证。

四 数据中心网络结构未来发展预测和展望

随着虚拟技术的成熟,云计算平台下的各种服务和应用都迁移到数据中心,数据中心的规模会越来越大,数据中心的网络结构肯定会随着不断发展和成熟。可以预测未来的数据中心网络结构会向以下几个方面发展:

(一)虚拟化

随着虚拟技术,特别是虚拟网络在数据中心网络中的应用。多种应用承载在一张数据中心的物理网络上,通过网络虚拟化分割(称为纵向分割),使得不同应用相互隔离,但可在同一网络上访问自身应用,从而实现了将物理网络进行逻辑纵向分割虚拟化为多个网络;多个网络节点承载上层应用,基于冗余的网络设计带来复杂性,而将多个网络节点进行整合(称为横向整合),虚拟化成一台逻辑设备,提升数据中心网络可用性、节点性能的同时,简化数据中心网络架构。

(二)延续性,独立性

新虚拟网络架构要能够基于现有的多种不同的物理基础网络架构,虚拟网络结构能独立于物理网络结构,物理拓扑的改变不会影响虚拟网络结构,新的数据中心虚拟网络容纳多种不同网络通信模型的应用程序。

(三)可扩展性更、容错性更强

云计算环境下的多用户数据中心,各个相对独立的用户共享整个网络。随着更多的网络应用向数据中心的迁移,用户的需求是动态变化的。随着网络规模的扩大,各个物理服务器,物理网络节点出错的概率大大增加,这就要求未来的数据中心网络结构有更好的可扩展性,更好的容错性和负载均衡能力。

参考文献

[1]A. Giurgiu. Network performance in virtual infrastrucures,Feb. 2010.

[2] C. Guo, H. Wu, K. Tan, L. Shi, Y. Zhang, and S. Lu, “DCell: A Scalable and Fault Tolerant Network Structure for Data Centers,” in SIGCOMM, 2008.

[3] C. Guo, G. Lu, D. Li, H. Wu, X. Zhang, Y. Shi, C. Tian, Y. Zhang, and S. Lu, “BCube: A High Performance, Server-centric Network Architecture for Modular Data Centers,” in SIGCOMM, 2009.

[4] R. N. Mysore, A. Pamboris, N. Farrington, N. Huang, P. Miri, S. Radhakrishnan, V. Subramanya, and A. Vahdat, “PortLand: A Scalable Fault-Tolerant Layer 2 Data Center Network Fabric,” in SIGCOMM, 2009.

[5] A. Greenberg, N. Jain, S. Kandula, C. Kim, P. Lahiri, D. Maltz, P. Patel, and S. Sengupta, “VL2: A Scalable and Flexible Data Center Network,” in SIGCOMM, 2009.

[6] Chuanxiong Guo1, Guohan Lu1, Helen J. Wang2, Shuang Yang3Chao Kong4, Peng Sun5, Wenfei Wu6, Yongguang Zhang1 “SecondNet: A Data Center Network Virtualization Architecture with Bandwidth Guarantees”2010

[7] Alan Shieh, Srikanth Kandula, Albert Greenberg, Changhoon Kim, Bikas Saha “Sharing the Data Center Network”

[8] Hitesh Ballani, Paolo Costa, Thomas Karagiannis, Ant Rowstron “Towards Predictable Datacenter Networks” in SIGCOMM, 2011

[9] J. Duato, S. Yalamanchili, and L. Ni. InterconnectionNetworks: An Engineering Approach. Elsevier, 2003.

[10] 刘晓茜,杨树保,郭良敏, 王淑玲, 宋浒” 雪花结构:一种新型数据中心网络结构”

[11] L. Barroso, J. Dean, and U. HÄolzle. Web Search for aPlanet: The Google Cluster Architecture. IEEE Micro, March-April 2003.

[12] F. Leighton. Introduction to Parallel Algorithms andArchitectures: Arrays. Trees. Hypercubes. MorganKaufmann, 1992.

[13] D. Loguinov, A. Kumar, V. Rai, and S. Ganesh.Graph-Theoretic Analysis of Structured Peer-to-PeerSystems: Routing Distances and Fault Resilience. InACM SIGCOMM, 2003.

[14] M. Al-Fares, A. Loukissas, and A. Vahdat. A Scalable,Commodity Data Center Network Architecture. InSIGCOMM '08: Proceedings of the ACM SIGCOMM 2008conference on Data communication, pages 63{74, NewYork, NY, USA, 2008. ACM.

[15] Amazon EC2 Spot Instances.aws.省略/ec2/spot-instances/.

[16] D. Kossmann, T. Kraska, and S. Loesing. An Evaluation ofAlternative Architectures for Transaction Processing in theCloud. In Proc. of international conference onManagement of data (SIGMOD), 2010.

[17] Google investor relations[EB/OL].investor.省略./financial.2011

作者简介: 程容斌(1981年5月) ,男 ,湖南武冈人,国防科大计算机学院工程硕士,主要研究方向:数据中心网络管理 电话 :13548687642

王宏 男 湖南长沙人 国防科大计算机学院副教授 主要研究方向 网络管理 数据中心管理

数据中心范文11

随着以虚拟化技术和云计算的发展和成熟,数据中心的应用数据急剧增长,数据中心与外部网络之间将承载大规模的数据交流,并且数据中心流量是高动态和突发的,据AlbertGreenberg等对数据中心的流量分析[3],约80%的流量都是内部流量[4],这就要求数据中心内部网络必须具有高性能、高稳定性、高扩展性以及资源的高利用率。另一方面,虚拟机动态迁移技术在数据中心也得到了广泛的应用,它可以使得逻辑服务器在网络服务异常的情况下,自动将网络服务动态迁移到另外一台逻辑服务器上,并保证前后的IP和MAC地址不变,这就要求逻辑服务器迁移前后的网络处于同一个二层域中。由于客户要求虚拟机迁移的范围越来越大,大型的数据中心甚至会在不同机房、不同地域之间动态迁移,传统网络的三层结构及其使用的网络技术已经不能满足其要求。新的数据中心要求减少网络层次、实现网络扁平化管理,数据中心的大二层网络及支撑其运行的网络技术随之诞生了。传统数据中心网络中二层网络技术主要使用xSTP(如生成树协议STP、多生成树协议MSTP、快速生成树协议RSTP等)。用户构建网络时,为了保证其可靠性,通常会采用冗余链路和冗余设备,这样避让就会形成网络环路。而同一个二层网络处于同一个广播域下,广播报文在环路中会反复持续传送,形成广播风暴,瞬间即可导致端口阻塞和设备瘫痪。为了防止广播风暴,就必须防止网络环路的形成,但又要保证其可靠性,就只能将冗余设备和冗余链路变成备份设备和备份链路。即冗余的设备端口和链路在正常情况下被阻塞,不参与数据报文的转发,只有在当前转发的设备、端口、链路出现故障时,冗余的设备端口和链路才会被激活,使网络能够恢复正常。自动控制这些功能的就是xSTP。由于基于xSTP的网络具有收敛时间长、部署复杂、资源使用率低等缺点,不适合用于构建大型的数据中心网络。为了解决xSTP技术带来的问题,一些新的、适用于大型数据中心组网的二层网络技术正逐步被标准化并付诸实施。所谓“大二层”是指所有VLAN都可以延展到所有汇聚层、接入层交换机的VLAN结构,这与传统数据中心VLAN往往终结在接入层交换机的做法不同[5]。目前,常用于数据中心的网络技术主要有交换机虚拟化技术、TRILL(TransparentInterconnectionoflotsoflinks,多链路透明互联)技术、SPB(ShortestPathBridging,最短路径桥接)技术及其中几种技术的融合。

1.1交换机虚拟化技术二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么如果将相互冗余的两台或多台设备、两条或多条链路合并成一台设备和一条链路,从逻辑上形成单设备、单链路的网络结构,网络环路也就随之消失。尤其是交换机技术的发展,虚拟交换机从低端盒式设备到高端框式设备都已经广泛应用,已经具备了相当的成熟度和稳定度。交换机虚拟技术已经成为目前应用于数据中心网络解决方案的主要技术之一。交换机虚拟化技术又分为交换机横向虚拟化技术和交换机纵向虚拟化技术。1)交换机横向虚拟化技术。交换机横向虚拟化技术是将同一层次的多台设备虚拟成1台逻辑设备,作为1个网元设备进行管理配置,保证突发流量不丢包,物理/虚拟服务器在1个大二层域下,即插即用,避免部署复杂的STP,支持大容量MAC地址,消除二层网络环路,提高二层链路利用率;实现跨交换机的负载均衡,交换平台易于扩展。交换机横向虚拟技术的代表是VSS(Cisco)、IRF(H3C)、CSS(华为)、VSU(锐捷),其特点是应用成本低,部署简单。但这些技术都是各自厂商独立实现和完成的,只能在同一厂商的相同系列产品之间才能实现虚拟化。同时,由于高端框式交换机的性能和端口密度越来越高,对虚拟交换机的技术要求也越来越高,目前交换机的虚拟化密度最高为4:1,即将4台物理设备虚拟为1台逻辑设备。2)交换机纵向虚拟化技术。纵向虚拟化是将下游交换机虚拟成上游交换机的端口,以达到扩展交换机端口能力并且对交换机进行集中控制管理。纵向虚拟化结合传输技术的运用可以实现跨数据中心的互联,实现网络最大化的简化配置,其距离仅受限于所选的万兆以太网光纤长度。目前,较为成熟的纵向虚拟化技术是Cisco的FEX(FabricExten-der,交换矩阵扩展器)和H3C的VCF(VerticalCon-vergedFramework,纵向融合框架)[6]。

1.2隧道技术

隧道技术实际上是数据中心网络在数据平面上的虚拟化技术,就是在二层以太网报文外面再封装一层标识用于寻址转发。这样基于外层标识就可以做到多路径负载均衡和避免环路等。当前隧道技术的代表是TRILL[7]和SPB[8],都是通过借用IS-IS[9](IntermediateSystemtoIntermediateSystemRoutingProtocol,中间系统到中间系统路由选择协议)的计算和转发模式来实现二层网络的大规模扩展。这些技术的特点是可以构建比虚拟交换机技术更大的超大规模二层网络。

1.2.1TRILL技术分析TRILL是IETF为实现数据中心大二层扩展制定的一个标准。其核心思想是将成熟的三层路由的控制算法引入到二层交换中,对原先的二层报文重新进行隧道封装后转换到新的地址空间上进行转发。封装后的地址具有与IP类似的路由属性,具备大规模组网、最短路径转发、等价多路径、快速收敛、易扩展等诸多优势,从而规避xSTP等技术的缺陷,实现健壮的大规模二层网络。1)TRILL协议的几个重要概念RBridges[7、10]:路由桥(RoutingBridge,简称RB)。运行TRILL协议的设备均称为RB。根据RB在TRILL网络中的位置,又可将其分为IngressRB[10](报文进入TRILL网络的入节点)、TransitRB[10](报文在TRILL网络中经过的中间节点)和EgressRB[10](报文离开TRILL网络的出节点)。Nickname:RB在TRILL网络中的地址,也是其在TRILL网络中的唯一标识。Nickname由系统自动分配,不需配置。VLANX转发器:对源报文封装TRILL头后送入TRILL网络进行转发或者将TRILL网络的报文解封装还原报文后发送给目的用户。2)TRILL的封装格式TRILL封装是MAC-in-MAC方式,TRILL数据报文在原始以太网报文之前添加了TRILL头和外层以太网头。因此,在TRILL公共区域数据报文可以经过传统Bridge和Hub依靠外部Ethernet报头转发[11]。TRILL帧封装格式及报头格式如图1所示。3)TRILL工作原理TRILL协议在各RB之间通过周期性通告Hello报文以建立并维持邻居关系,在形成邻居关系的RB之间扩散链路状态包(Link-StatePacket,LSP),最终在全网RB上形成相同的链路状态数据库(LSDB)。各RB在LSDB的基础上使用最短路径优先(ShortestPathFirst,SPF)算法生成从自己到其他RB的路由转发表项,用以指导数据报文的转发。4)TRILL转发流程TRILL协议通过在各个RB之间相互发送Hello报文建立邻居,通过LSP扩散方式同步LSDB,此时,网络中每台RB拥有相同的LSDB,即整网拓扑。然后各RB以LSDB为基础,利用SPF算法计算本地到全网所有RB之间的最短路径以及出接口、下一跳等信息,结合LSDB中各RB的nickname信息,最终生成nickname转发表。TRILL网络接收到用户报文时,根据报文中包含的目的MAC地址,按照不同的转发流程进行转发:如果MAC地址为单播地址,按照单播报文转发流程进行转发;如果MAC地址为组播或广播地址,按照组播报文转发流程进行转发。单播报文的转发过程如图2所示。(1)当单播数据报文进入TRILL网络时,IngressRB为原始以太网报文先打上TRILL头,再打上外层以太网头(类似于IP报文前的MAC头),由此完成TRILL报文的封装。(2)此后,类似于IP报文在网络内或网络间的转发过程,各RB根据TRILL头中的EgressRBNickname将TRILL报文进行逐跳转发,直至送达EgressRB。在此过程中,外层以太网头在每一跳都要被修改,而TRILL头中只有HopCount值逐跳递减。(3)当TRILL报文到达EgressRB后被解封装还原成原始以太网报文,离开TRILL网络。当组播流量进入TRILL网络时,IngressRB负责选取一棵组播分发树进行流量转发,当TRILL网络中的RB设备存在不止一个下一跳时,则将组播报文复制多份,根据组播转发表转发到所有出接口。组播转发流程如图3所示。IngressRB(RB1)收到终端A发送的二层报文后,发现报文中携带的目的MAC地址是组播MAC地址,首先根据此报文所属VLAN选定一棵组播分发树(RB3)进行TRILL封装,将TRILL头部M位置1,即说明该报文为组播报文,然后根据RootRB的nickname查询TRILL组播转发表,获取出端口列表进行分发;TransitRB4接收到TRILL数据报文后,解析TRILL头部,发现M=1即判断该报文为组播报文,再根据Egressnickname查询对应的组播转发表,进行转发;RootRB接收到TRILL数据报文后,向所有出接口分发该报文;EgressRB对TRILL报文进行解封装,获取原始二层数据报文,然后在本地对应接口转发出去。由于TRILL网络中数据报文转发可以实现等价多路径(EqualCostMultipath,ECMP)和最短路径(shortestpaths),因此,采用TRILL组网方式可以极大提高数据中心数据转发效率,提高数据中心网络吞吐量。

1.2.2SPB技术分析SPB是IEEE组织针对数据中心大规模二层网络应用模型定义的一组协议(IEEE802.1aq),是多生成树协议(MSTP)的进一步延伸,旨在构建大型扁平的无阻塞二层网络。与TRILL一样,也使用IS-IS协议来共享交换机间的多个学习的拓扑,并迅速学习以太网连接中各端点之间的最短路径,避免了使用STP带来的收敛速度慢和部分链路利用效率低下的不足。相对于TRILL,SPB最大的优势在于能够方便地支持VLAN扩展功能。1)SPB协议族的结构SPB协议包括SPBV(VLANQinQ模式,Q指IEEE802.1Q)和SPBM(MacinMac模式),无论是SPBV还是SPBM,在控制平面都是基于L2IS-IS实现拓扑发现、管理。在协议的具体实现思路方面两者是一致的[12]。目前主要应用的模式是SPBM。SPBM基于PBB(ProviderBackboneBridge,运营商骨干网桥)协议。PBB定义了二层网络中的数据转发流程,但是PBB本身没有定义控制流程,其二层网络的拓扑控制、二层环路管理必须依赖于传统的STP等技术。因此,PBB需要定义一套控制流程,使其能够有效地替代STP协议管理大规模二层网络的拓扑和环路,SPBM就成为PBB的控制流程协议。SPBM+PBB构成了完整的二层网络技术,其中SPBM是控制平面协议,而PBB是数据转发层面协议。2)SPBM网络结构模型SPBM网络模型与IEEE802.1ah定义的MAC-in-MAC网络模型基本一致。由SPB核心网络SPBN(ShortestPathBridg-ingNetwork,最短路径桥接网)和用户网络(Cus-tomerNetwork)两部分组成。SPBN由BEB(Back-boneEdgeBridge,骨干网边缘网桥)和BCB(Back-boneCoreBridge,骨干网核心网桥)设备组成,通过IS-IS协议完成最短路径的计算,以保证SPBN无环路。用户网络是通过一台或者多台边缘设备连接到SPBN网络且具有独立业务功能的二层网络,主要由主机和交换设备组成。3)SPBM报文格式SPBM报文分为两种:控制报文和数据报文。控制报文采用802.1Q格式封装,包括Hello、LSPDU(LinkStatePDU,链路状态协议数据单元)、SNP,直接封装在数据链路层的帧结构中。数据报文采用IEEE802.1ah(MAC-in-MAC)定义的封装格式。其格式如图4所示。4)SPBM工作原理SPBM由SPBIS-IS协议和MAC-in-MAC协议共同完成。其中MAC-in-MAC协议为数据协议,负责数据的封装及发送;SPBIS-IS协议为控制协议,负责计算数据的路由转发路径。SPBIS-IS协议在各BEB、BCB设备之间通过周期性通告Hello报文以建立并维持邻居关系,在形成邻居关系的设备之间扩散LSPDU,最终在SPBN中的所有设备上形成相同的LSDB。各SPBM设备在LSDB的基础上使用SPF算法生成从自己到其他设备的最短路径,其基本思路如下:首先计算任意两节点间的最短路径,并判断是否存在等价路径;如存在,则计算各条等价路径的Key值;然后比较所有等价路径的Key值,取最小的Key值对应的路径作为转发路径。Key值计算公式为:Key=min{BridgeIDXORMASK[i-1]}其中BridgeID是交换机ID,由用户直接配置的一个唯一的编号或名字。MASK[i]是一个标准协议中定义的数组,其大小为16。由协议为该数组指定具体数据,对应16个不同的实例。当前协议中定义的数组是。5)SPBM转发机制SPBIS-IS协议仅负责计算SPBN的最短路径,生成对应的转发表项。数据报文在SPBN中转发过程如下:(1)入隧道:BEB设备从用户网络收到数据报文后,学习该报文的源MAC,并为其封装上MAC-in-MAC头后将该报文发送进入SPBN中。(2)隧道中转发:MAC-in-MAC报文在SPBN中传输时,BCB设备根据报文中B-DA,B-VLAN查找转发表,如果无对应的转发表则丢弃该报文;有对应的转发表则按照转发表进行转发。报文在转发过程中,中间设备不会对其源MAC进行学习。(3)出隧道:MAC-in-MAC报文到达隧道终点时,BEB会解封装MAC-in-MAC报文还原成数据报文。BEB学习数据报文中的源MAC后,把数据报文发送到用户网络。为防止产生环路,数据报文在SPBN中禁止广播发送,只支持单播、组播发送。数据报文进入隧道时BEB设备根据报文中的目的MAC来确定后续报文在SPBN中以何各方式进行传输:若目的MAC为广播MAC、未知单播MAC或未知组播MAC,则封装后的报文在SPBN中进行SPBM组播发送;若目的MAC为已知单播MAC,则封装后的报文在SPBN中进行SPBM单播发送。SPBM组播支持两种模式:头端复制和核心复制,用户可根据实际组网选择不同的组播模式。SPBM单播转发过程如图5所示。首先用户数据由用户网络1进入BEB1后,BEB1对报文进行封装,写入B-MAC、B-VLAN、I-SID等信息;然后,按照计算出的转发路径,路径上的交换机按照报文中的B-MAC和B-VLAN等信息进行转发;当报文到达BEB2后,由BEB2进行解封装,去掉报文中的B-MAC、B-VLAN、I-SID等信息,进入用户网络2。SPBM组播转发流程SPBM的组播与传统的三层网络组播管理基本类似,都是基于单播管理。在单播管理形成的转发路径上计算组播路径。SPBM在不同的实例中,定义不同层次的组播树,相互独立;每个实例中,每个节点都有以自己为根的独立组播树。

1.2.3TRILL与SPB技术对比(见表1)SPB是纯软件的解决方案,不需要更新转发芯片去支持,与现有的MSTP兼容,但也造成了目前SPB应用中的最大困扰。由于转发路径靠软件算法保障,在多路径负载分担时,对CPU计算能力的要求也就远远超过TRILL。

1.3存储网络技术-FCoE

在传统的数据中心里,存储网络与数据网络是各自独立的。在大部分数据中心都部署了专门的存储区域网络(FCSAN),这种基于FC协议的SAN虽然在性能、可靠性等方面能够充分满足用户的需求,但作为目前SAN的光纤通道协议FC,它的底层发展受到很大的限制,FCoE(FibreChanneloverEth-ernet,以太网光纤通道)可将光纤通道(FibreChan-nel,FC)信息封装到以太网信息内,光纤通道请求和数据可以通过以太网络传输,是专门为低延迟性、高性能、二层数据中心网络所设计的网络协议,是一种利用以太网实现高效块存储的技术。FCoE技术融合了现有的传统局域网(LocalAreaNetwork,LAN)和存储区域网(StorageAreaNetwork,SAN),扩展了SAN的传输带宽,减少了数据中心的I/O接口,可以在高速以太网链路上同时传输IP和FCoE数据分组。

1.3.1FCoE协议栈FCoE保留了FC协议栈中FC-2以上的协议栈,把FC中的FC-0和FC-1用以太网的链路层取代。FC协议中,FC-0定义承载介质类型,FC-1定义帧编解码方式,这两层是在FCSAN网络传输时需要定义的方式。由于FCoE运行在以太网中,所以不需要这两层处理,而是用以太网的链路层取代这两层处理。

1.3.2FCoE报文封装如图6所示,FCoE报文是在以太帧内增加4字节的802.1Q报头、2字节的以太网类型(FCoE对应0X8906)。在普通以太网络中,帧最大为1518字节,但FC帧最大约大为2112字节,为了保证FCoE端到端传输的流畅性,使用"巨型帧"来进行数据封装,它允许以太网帧在长度上最大可以达到9000字节,最大的巨型帧可以实现在一个以太网帧下封装4个光纤通道帧。但要保证巨型帧在以太网络中能正常传递,网络内所有以太网交换机和终端设备必须支持一个公共的巨型帧格式。随着FCoE技术应用的普及,除接入层交换机、服务器外,汇聚核心层交换机、存储设备也逐渐支持FCoE接口,磁盘阵列可直接连接到数据中心交换机上,从而实现了数据中心内端到端的FCoE网络。

2大二层技术在数据中心的应用

通过对交换机虚拟化(VSS/IRF/CSS/VSU)、TRILL和SPB等大二层网络技术的分析,各种技术都有其优势和适用的范围。一个数据中心的建设也不可能只使用一种技术来实现,通常是两种或多种技术的融合。下面就通过IRF+TRILL技术给出一个具有较为适用的中型数据中心的基本网络架构。如图7所示。核心层:2台核心设备通过两条40G链路连接,运用IRF虚拟化技术对核心设备横向整合,将2台核心物理设备虚拟成1台逻辑设备,整合后的虚拟化设备具备跨设备链路聚合功能,所有链路都参与以太帧转发,这样2台核心既能负载均衡,又能实现“双活”。TRILL网络:又分为TRILL网络核心层和TRILL网络接入层。核心层RB只负责TRILL帧的高速转发,不提供主机接入。每个接入层RB通过2个万兆端口分别接入到2台核心层RB上,此时服务器接入交换机的上联网络带宽就可达20G。存储网络:通过FCoE技术直接将存储设备接入核心网络的2台核心交换机。使用FCoE技术,可以突破传统FC网络的距离限制,将存储网络延展到任何地点,为以后的容灾备份中心的建立打下基础。同时融合后的数据中心只存在一个网络,存储网络和以太网络统一管理、统一维护,大幅减少了管理人员的工作量。通过IRF+TRILL技术以及FCoE技术部署的数据中心,具有以下几方面的优点:1)高可用性:虚拟化技术通过核心交换机N:1的横向整合,既实现了核心设备的负载均衡,又使2台核心保持“双活”,保证了核心网络的高可用性。2)高扩展性:服务器通过该种方式接入TRILL网络可跨越交换机,不存在二层环路,使得网络接入层具有良好的扩展能力。3)高效性:由于TRILL网络中数据报文转发可以实现ECMP和最短路径,因此,采用TRILL技术可以极大提高数据的转发效率,提高数据中心网络吞吐量。4)更高的灵活性和可靠性:统一的架构是实现下一代虚拟化数据中心架构的关键因素,在这种架构中,服务器、存储和其他资源都可以动态分配,以适应变化中的工作负荷和新的应用程序,而且无需进行频繁的物理设备变动。对于数据中心虚拟化和自动化来说,这中架构是非常好的。

3总结

数据中心范文12

随着虚拟化、云计算以及移动技术的应用,下一代数据中心正面临着越来越多的安全挑战,如何保护下一代数据中心的安全,已成为用户和IT厂商必须要应对的一场战争。

安全挑战激增

虚拟化、云计算等技术的采用,已经被普遍认为是下一代数据中心的标志。确实,这些新技术的应用,使得企业的数据中心更加强大、灵活,但这同样也给数据中心的安全带来了更多新的挑战。

“云计算正在转化传统的数据中心,包括公有云和私有云。企业将数据中心虚拟化,并将工作负荷和数据扩展到公有云,数据中心逐渐缩小。随着数据中心从物理转换为虚拟,并最终转换到云端,企业业务将面临新的安全、管理和投资回报率的挑战。”趋势科技中国区产品经理钟宇轩说道。

迈克菲安全软件有限公司中国区售前技术总监郑林则认为,传统的数据中心安全保护通常是在“事后”部署,而非始于架构设计阶段。如今的数据中心必须同时具备可用性、灵活性、可扩展性和安全性,而传统方法已无法确保可靠的不间断的服务交付。“被动式方法适用于集中的整体式数据中心,而今已不再可行。如今,下一代数据中心具备模块化、混合式和分布式的特点,打破了传统的网络边界。企业过去用于保护其重要资产的可靠硬件边界已不复存在。”

确实,越来越多的数据中心正在借助虚拟化来实现整合(减少数据中心的数量)并提高资源利用率(利用共享的计算服务器来满足高峰容量需求,无需额外的费用)。不过,由于大多数虚拟化项目依赖传统和过时的安全模式,因此,存在很多安全及合规隐患。这将带来各种风险,例如,无法获知正在运行的虚拟机(VM)数量和位置;物理环境中建立的可靠边界是否已适当地迁移到虚拟环境;以及VM是否安全。此外,企业大多不愿意通过增加安全等其他领域的工作量和管理来减少与虚拟化相关的成本。

云计算的引入同样也给数据中心带来了更多的风险和复杂性,在由多家独立客户共享虚拟化物理资产的公共云设计中,这一问题尤为明显。

在钟宇轩看来,下一代数据中心与传统数据中心相比,从用户角度来说,安全防护的新挑战包括如下几点:

1、云数据中心持续在高负荷状态下运行,要求安全设备也要具备持续工作的高可用性,这对安全厂商来说,考验了产品设计的能力。

2、云数据中心的基础设备更加规模化、标准化,由此带来了安全管理的复杂性。

3、云数据中心为了节省成本、实现日益增多的业务,会采用各种虚拟化技术,而虚拟化安全的防护,相对于传统物理主机更有难度。

4、在云数据中心,当业务需要迁移、设备需要统一配置、故障需要及时检查排除、流程需要跟踪时,对于海量的设备和应用提出了更高的管理要求。因此,云数据中心对于IT设备和信息安全解决方案的要求要高于传统数据中心。

5、云计算未来的潜力很大,云计算可以帮助社会、医疗、交通实现更好地为民服务,实现数据在云端的集中共享;还可以为我们提供更多生活服务。但这一切的前提是确保信息安全。

下一代数据中心安全需要统一架构

可以看到,同以往相比,下一代数据中心在安全方面,确实面临着很多新的挑战。例如,服务器数据和关键业务虚拟化和移动化后,安全和保护措施能否紧跟其后并立即到位?在更多新的安全威胁的情况下,如何保证数据中心的正常运行?

那么,企业该如何做才能使自己的数据中心更加安全呢?

钟宇轩认为,企业如果想要确保数据中心内各环节的安全需求到位,需要从三个方面入手。“首先在部署方面,要在正确的位置使用正确的安全性解决方案,例如邮件网关应用在邮件服务器(或集群)前段;虚拟服务器使用应针对虚拟化环境开发的解决方案等。其次,在执行层面,则需有效规范与执行安全策略。另外,在审计方面,则应定期寻求第三方审计单位巡查策略是否符合最新威胁,和确认执行率。”

而在郑林看来,与传统的数据中心防护方案相比,下一代数据中心在安全防护方面,首先要做的就是需要有全面的规划和统一的管理,而不是像以前那样“各自为战”。

“以往的数据中心安全防护,更多的是单点式的:哪里出现问题,就针对这一问题进行安全防护。但被动做法使数据中心控制措施非常繁杂、成本高企,并且易造成业务中断,极大拖累了大多数企业的增长步伐。因此,传统的数据中心安全方案,缺乏快速、无缝满足新要求所需的业务灵活性、经济高效的安全管理、当今关键的业务运营所需的可用性和完整性,以及提高成本效益所需的优化设计。”郑林坦言,虽然现在市场上的安全解决方案名目繁多,但大多数都是在某一方面表现较好。不过就整体而言,它们会增加复杂性,而这也是数据中心安全的最大“敌人”。因为孤立的解决方案缺乏相关性,依赖于不断增加资源才能运行,这是不可持续的。“现在需要企业采用战略架构将原本‘各自为战’的组件联系起来。另外,为了实现最佳的安全防护,企业还必须做到预先规划,为企业数据中心的安全防护构建一个长期的发展方向。”另外,郑林还认为,当今的数据中心安全架构应该支持优化的安全模式,这样的模式旨在集中管理安全控制,让这些控制互连互通,并让解决方案与业务优先级保持一致,同时降低安全运营成本。

“云数据中心”安全落地需更多合作

事实上,为了帮助用户更好地保护下一代数据中心的安全,各大安全厂商在最近一两年都纷纷推出了相应的解决方案。这也使得企业用户在进行数据中心建设时,有了更多的选择。

“为了协助企业实现“云落地”,确实为用户提供三个层面的解决方案。”钟宇轩介绍说。

首先是移动终端安全管理解决方案。“根据时下的移动网络安全威胁的特点和未来可能的演化趋势,趋势科技拥有一套全面保护企业和个人移动终端的设备、系统和应用层面安全的解决方案,能够全面保护移动智能终端安全,使得企业和个人用户安全无忧地跨物理、虚拟和云环境、自由地分享数据。”

而针对数据中心内最重要的设备—服务器,趋势科技则研发了服务器深度安全防护系统。“另外,在如今的快速率互联网时代,高级持续性威胁(Advanced Persistent Threat简写APT)不断袭击,严重威胁着企业的数据安全。APT攻击通常以窃取企业机密数据和情报为目的,利用复杂精准的方式发动长期的、有计划、有组织的攻击。同时,黑客和地下未知产业链也不时对企业进行侵袭,且攻击手段也越来越隐蔽。为应对APT攻击,趋势科技集成云安全技术,推出TDA威胁发现设备,在企业内部与防毒软件配合共同作用,检测基于Web威胁或邮件内容的所有攻击,全面检测恶意威胁,及时识别应对各种危险。”钟宇轩说道。

而迈克菲公司则将解决方案的重点放在如何为下一代数据中心提供统一的管理上。“下一代数据中心需要统一的管理结构,以确保安全资源将重点放在化解潜在攻击上,从而避免使关键资产陷入瘫痪,以及运营和增收服务中断。”郑林表示,为了实现这一目标,迈克菲已经启动了一项全面的安全计划,提供实践指南、参考架构以及其他工具和服务,以保护关键资产并优化由大中型数据中心所支持的业务运营和按需服务。