企业数据中心设计方案建设方案?

铁路数据中心设计方案的建设是┅个庞大的系统工程涉及到应用系统开发、维护、IT基础设施的整合虚拟化等方方面面。

作为铁路客运、货运两大核心应用系统TMIS货运、TRS愙票的信息化发展现状最能代表中国铁路信息化的发展水平。

TMIS是铁路最早应用的信息化工程网络覆盖铁道部、路局、以及全国两千多个貨运车站,主要完成运输计划自动下达、货车自动跟踪等功能TMIS采用原始信息三级建库的组网架构,基层站段的大量原始数据(如确报、貨票、集装箱等信息)采用本地存储上报信息采用区域中心、路局、铁道部分别落地、逐级上报的方式,各级独立建设原始信息库和动態信息资源库负责对本级原始信息分级进行加工、处理。

三级建库架构在降低广域网带宽压力的同时也形成了数据分布式存储的现状,这与TMIS系统以中央数据库为核心的最初设计架构相去甚远使得原铁道部无法全面统筹分析和优化运输资源,限制了铁路运输生产和管理效率的持续提升

TRS客票系统从1996年开始上线1.0版本,通过车票信息在车站内部共享实现了车站窗口联网售票后续又经历客票从2.0到5.0版本的不断升级,最终实现客票数据在全路范围内的互通共享支持异地联网购票,彻底解决了铁路“有座无票”的历史

但这种由下向上的客票数據逐步集中过程,同样缺乏一个整体客票数据中心设计方案的规划目前,客票数据依然分布存储于全国27个区域客票中心造成了在12306互联網的车票查询、统计、销售流程对区域客票数据库遍历查询效率低下的问题。为此原铁道部在北京新建了客票数据中心设计方案先期只鼡于存储通过互联网销售的客票数据信息,使统计、退票等流程所需的数据库查询可在本地就能完成在一定程度上优化了网站处理性能,但分布式数据存储架构所造成的性能瓶颈在短时间内尚难以解决

与此同时,别国铁路公司(如美国诺福克南方铁路公司)数据中心设計方案建设所发挥的作用给了我们有益的启示为进一步提升铁路信息化的力量,建立TMIS货运、TRS客票系统的集中数据中心设计方案成为中国鐵路信息化的必然发展方向

美国诺福克南方铁路公司(简称NS公司)成立于1982年,由诺福克铁路公司与南方铁路公司合并组成是美国四大┅级铁路运输公司之一,总部位于亚特兰大NS公司营业里程3.5万公里。公司拥有货车10万辆机车3750台,共有员工3.05万名其经连续18年获得北美铁蕗运输安全协会颁发的金牌奖章,并且是北美铁路运营成本最低、运输安全最好的铁路公司其信息技术应用的广度、深度和效果在全球哃类企业中均居前列。

NS公司有两个互为备用的数据中心设计方案(如图所示)分别位于塔克尔和亚特兰大总部,数据中心设计方案的服務器、网络等设备全部冗余备份以确保信息系统不间断运行。数据中心设计方案与11个地区分公司之间传输带宽为45M分公司与250个车站之间嘚带宽最小为256K。NS公司采用完全集中式信息系统结构车站不建独立系统,不设服务器只有个人电脑、打印机等终端设备,信息系统所需處理平台(大型主机、UNIX服务器、PC服务器等)以及数据存储平台(数据库、磁盘阵列、磁带库等)均集中在数据中心设计方案部署

图 NS公司數据中心设计方案拓扑

NS公司信息系统集中式体系结构具有以下优点:

  • 数据大集中,便于数据统计分析以及跨应用系统数据共享;

  • 双冗余数據中心设计方案应用安全数据安全有保障;

  • IT资源与人力资源在总部集中,车站免维护、总部人员维护效率高、系统可靠性高;

  • 避免应用哆层次接口设计系统软件结构简单、稳定可靠;

IT设备大集中使得NS公司只需很少专家在总部就能完成信息系统开发、维护工作。NS公司的信息部门共计605名员工其中开发人员195人,应用系统支持维护人员137人网络、服务器及存储等硬件维护人员273人。

在参考包括铁路在内的国内外各行业信息化经验的基础上原铁道部在2012年发布了《铁办〔2012〕101号》文件,规划了中国铁路信息化的四大发展方向

? 建设高性能多业务承載网:“数据通信网资源应综合使用,除国家法律法规有明确规定的和国家有关部门有特殊要求的原则上不再单独建设专网,现有各业務专网应逐步整合提高网络利用效率和运行质量,避免网络资源浪费”

? IT资源大集中,降低边缘站点维护工作量:“为适应信息技术發展和信息系统运维工作特点应积极推进计算机设备配置和部署集中化,最大限度地减少沿线和地区计算机设备尽可能实行集中维护管理,减少基层站段维护工作量”

? 铁道部及路局两级数据中心设计方案建设:“以部、局两级数据中心设计方案和铁路信息网建设为偅点,建成铁道部、铁路局两级现代化数据中心设计方案和先进高效的信息处理平台实现信息资源和网络资源的集中配置与管理,提高鐵路信息资源、网络资源共享程度和综合利用水平满足信息系统互联互通和资源共享需要。”

? 共享IT资源池建设:“建立铁路计算机硬件资源共享机制原则上,新建信息系统所需主处理设备和运行环境统一配置不再随具体系统单独建设,实现硬件资源的共享共用”

圖1 铁路数据中心设计方案规划

(如图1所示)未来铁路信息化首先以高性能铁路骨干网为依托,将原来部署在车站的IT设备向路局、铁道部层媔进行汇聚在不改变应用系统逻辑架构的基础上,实现服务器、存储等设备的物理集中提升维护效率,降低车站维护压力

其次再对鐵道部、铁路局的服务器和存储设备实施逐步虚拟化,构建铁道部和铁路局两个层面的云数据中心设计方案实现路局内部,以及路局与鐵道部之间的IT资源动态复用

在可预想的未来,铁路云数据不仅能为类似春运售票等突发业务提供足够性能支撑而且新上线业务也不必洅次购买IT设备,只需提出资源需求清单通过创建虚拟机就能立即上线,免除了传统的招标、采购、按照、调试等复杂流程将上线时间從数月降低到几天、甚至是几小时,这在过去是完全不能想象的

1. 铁路数据中心设计方案虚拟化现状及改造需求分析

在路局和铁路总公司兩级虚拟化数据中心设计方案建设完成之前,部分铁路用户已经做过相应的虚拟化试点如原铁道部和路局调度大楼的KVM系统,采用瘦客户機+虚拟桌面的方式降低了操作终端的维护成本,更保证了应用系统数据不会被操作终端泄密保证了数据安全;在南昌铁路局车站系统Φ,通过新购服务器加载虚拟机模拟出停产旧服务器使得老应用程序能正常运行。但这些虚拟化应用都是在某个系统内部的局部试点洳果要大规模应用虚拟化,必须要解决以下两个基本问题

? 问题一:哪些铁路业务适用于新一代虚拟化数据中心设计方案?

按照铁路现囿的规章制度只要涉及到行车和资金安全的系统都必须独立组网,典型代表是TDCS/CTC信号系统、TRS客票系统除此以外的TMIS货运、OA办公、车号识别、红外轴温、电力远动、水电监控、信号微机监测、医疗保险等业务均可以共享单一网络和数据中心设计方案。

? 问题二:在能虚拟化的業务中有哪些IT资源能够被虚拟化成资源池?

存储资源的虚拟化已经相对成熟并广泛应用,这里主要探讨服务器虚拟化问题铁路信息系统服务器主要由以下三种组成。

? 小型机:普遍配置64位32/64核CPU运行UNIX操作系统,主要作为应用系统数据库服务器包括:TMIS货运、TRS客票、TDCS列车調度、OA办公自动在内的铁路核心业务数据库。

? 刀片服务器:主流配置为2个64位8核X86架构CPU大于64G的内存,要求支持刀片集群和虚拟化功能主偠作为包括车站、路局层面在内的几乎所有铁路应用服务器。

? 机架式服务器:主流配置为2个4核X86架构CPU大于16G的内存,主要作为应用系统管悝服务器、网络管理服务器来使用

由于不同厂商小型机采用各自专有的CPU、操作系统和虚拟化技术,通常只能与同品牌甚至同型号的计算機搭建虚拟化群组适用性受限。而基于X86架构的Intel、AMD CPU虚拟化方案由于标准的一致性和开放性这使得不同厂商服务器之间的虚拟化整合更为荿熟,并具有更高性价比吸引了包括VMware、XEN、KVM、Citrix、Microsoft等众多虚拟化软件厂商参与其中,成为云时代数据中心设计方案虚拟化主流方案

除了服務器硬件的限制,服务器承载的业务类型是决定能否虚拟化的另一个重要因素总体而言,以下几类应用不建议做虚拟化

? 大负载应用:这些应用需要占用大量的I/O和内存资源、不能通过负载均衡分摊处理压力(如Exchange、数据库应用)。

? 具有特殊硬件访问要求的应用:高性能計算、高性能图形处理、特殊串/并行加密应用

? 有特殊驱动程序要求的应用:如基于3D加速硬件的定制视频驱动程序。

结合以上分析我們建议承载数据库应用的小型机不参与虚拟化整合,继续作为特定应用系统的服务器单独使用而其他的应用服务器、管理服务器均为X86架構体系,可作为未来虚拟机应用的基础

2. 铁路云数据中心设计方案建设思路

铁路云数据中心设计方案建设是一个逐步实施的过程。

首先是鐵路总公司、路局层面数据中心设计方案虚拟化过程包括:存储虚拟化、计算虚拟化、网络虚拟化以及配套的云业务管理平台的建设。洳何在尽量不对上线业务造成影响的情况下将搭载在物理服务器或部分虚拟化服务器上的业务整合到一个统一的大虚拟化计算资源池中,并使网络能适应虚拟机应用所需的高性能、虚拟机流量监控管理、虚拟机迁移策略自动跟随等特性

当铁路总公司、路局层面的云数据Φ心设计方案建设完成后,还可实现两级数据中心设计方案之间的资源共享比如路局虚拟机处理性能不足时,可将虚拟机推送到有空余處理能力的铁路总公司甚至是其他路局的数据中心设计方案打造全路范围内的大IT资源池,进一步提升资源利用效率

在得到相关政策允許时,还可将铁路专有云与第三方公有云对接将临时突发业务推送到公有云去处理,业务结束后立即归还通过租赁的方式打造铁路信息化的一种创新低成本思路。

为保证业务可靠性铁路总公司和路局还将建设数据中心设计方案的冗余备份中心(包括同城灾备中心、异哋灾备中心等),这会涉及到城域、广域灾备网络建设服务器集群、数据同步等更多技术。

以下重点探讨铁路数据中心设计方案建设的湔两个阶段即数据中心设计方案的虚拟化以及跨级资源共享。

路局/铁路总公司内部虚拟化数据中心设计方案建设及关键技术

以路局数据Φ心设计方案为例建议的数据中心设计方案架构如图2所示,铁路总公司组网结构与此类似H3C能为铁路云数据中心设计方案建设提供从网絡、服务器、存储产品以及云管理平台全面解决方案,同时还以开放的国际标准协议为基础能充分兼容现有铁路信息化的主流第三方厂商,确保现有IT资源的充分复用

图2 路局数据中心设计方案架构

云数据中心设计方案涉及多种技术,以下重点探讨服务器迁移、虚拟机创新應用与管理、高性能数据中心设计方案网络三个部分

在完成对现有IT资源池化的基础上,如何将现有正在运行的铁路生产应用无缝迁移到噺的虚拟化应用平台是云技术应用最关键的一步这包括物理服务器业务迁移和已经应用虚拟机的业务迁移到另一种格式的虚拟机上两种凊况。

物理服务器虚拟化迁移方案如下(如图3所示):

图3 P2V物理服务器迁移方案

  • 用少量支持虚拟化的X86服务器搭建一个最小化的虚拟化计算资源池;

  • 在待整合物理服务器上***P2V转换软件在不中断业务的情况下对服务器磁盘执行克隆操作,生成一个可启动的虚拟磁盘文件;

  • 将虚擬磁盘文件导入到虚拟化计算资源池的某台服务器上正常恢复业务运行;

  • 将空闲出来的原服务器再次进行虚拟化,纳入到虚拟化资源池Φ继续发挥其处理能力(实际工程中,为保障迁移的可恢复性会将待整合的原物理服务器继续保留一段时间,在充分验证虚拟机正常笁作后再进行整合)

图4 V2V虚拟服务器迁移方案

对于现有虚拟机整合,虽然都是基于X86服务器的虚拟化但不同虚拟化厂商之间的虚拟机格式並不通用,只有进行格式转换后才能在其他厂商虚拟化环境中运行(如图4所示)以运行在VMware中的一个Windows Server 2008虚拟机为例,H3C提供虚拟机转换方案可將虚拟机的镜像文件Windows2008.VMDK拷贝到H3C的CAS平台将其转换为RAW或QCOW2格式。相比之下RAW具有格式通用,访问速度快的特点而QCOW2作为一种新虚拟机格式,在具備与RAW基本相同访问性能的基础上还支持快照增量的特点,后续使用会越来越多最后只需在CAS平台中启动经过转换格式的虚拟机镜像文件,虚拟机就完成了迁移

而服务器承载虚拟机的数量与服务器硬件性能和应用负载大小和关键程度都相关。根据工程经验一台双路6核CPU服務器可支持10个虚拟机,四路6核CPU服务器可支持15-30虚拟机

? CPU性能:核数越多,主频越高所能支持的虚拟机数量越多。

? 内存大小:内存容量樾大所能支持的虚拟机数量越多。

? 本地磁盘:内置本地磁盘可用性和I/O吞吐能力都较弱推荐使用外置高性能磁盘阵列。

应用负载大小與业务关键程度如下:

? 应用负载越大能同时运行的虚拟机数量越少。

? 业务越关键建议同时运行的虚拟机数量越少。

? 为实现高可靠热备所需的资源冗余建议单服务器的总体资源使用率不要超过2/3。

  • 虚拟机创新应用与管理技术

由于虚拟机不同于物理服务器可看得见、摸得着如何创建虚拟机、迁移虚拟机、以及对虚拟机的流量进行监控,只有配备完善的云管理平台才能使虚拟化具备实用价值

H3C CAS云计算管理平台可以提供全中文图形化的自助操作界面,能从虚拟化的计算、存储、网络资源池中申请一台虚拟机所需的全部资源并支持虚拟機的启动、暂停、恢复、休眠、重启、关闭、下电、克隆、迁移、快照等全部功能; CAS云管理平台能充分发挥云计算的敏捷性、可控性和高效性,可极大程度地提高了铁路业务的响应能力

基于虚拟机可迁移特性,H3C虚拟机动态资源调配技术(如图5所示)则能自动监控虚拟化资源池中物理服务器的CPU负载、内存负载等信息一旦出现某台物理服务器的性能达到某个阈值,CAS云管理平台会将该台服务器的部分虚拟机自動迁移到比较空闲的物理服务器确保每个虚拟机都能充分利用服务器处理资源。

图 5虚拟机动态资源调配技术

对于类似“铁路18点统计”这樣每天到18点时将统计数据集中上报的突发业务往往会出现承载该业务的一台虚拟机在短时间内处理性能不足的问题。为此H3C提供虚拟机動态资源扩展方案,能将处理性能不足的虚拟机复制多份在多台具备空闲处理能力的物理服务器上同时启动,结合负载均衡技术将虚拟機的处理性能成倍提升这种性能自动扩展技术在传统物理服务器架构下完全是不可想象的。

  • 数据中心设计方案高性能网络技术

由于一台粅理服务器可虚拟化成10台或更多的虚拟机按每个虚拟机的流量达200~300Mbps计算,则物理服务器的网口流量可达到2~3Gbps传统物理服务器的千兆接ロ在虚拟机时代已经远远不能满足要求。近期支持虚拟化X86服务器基本都配置了万兆接口这使得服务器接入交换机从千兆接入跨入到万兆接入的时代,骨干网带宽也从万兆扩展到40G、100G高带宽、高性能直接推动了数据中心设计方案交换机的出现和快速发展。

与传统园区网交换機将路由引擎与交换引擎一体化设计不同与H3C S1系列数据中心设计方案交换机同等级别的产品均采用了路由引擎、交换引擎物理分离的分布式CLOS架构,通过多块交换引擎并行工作可将交换容量成倍提升。以H3C S12500交换机为例它最多可支持864个线速万兆端口或者384个线速40G端口的转发。

服務器集群及虚拟机迁移要求在物理服务器及虚拟机都必须在一个大二层网络内但传统的双归属组网方案为避免以太环网问题,必须开启STP/RSTP/MSTP協议造成了管理复杂、带宽利用率低、故障切换速度慢的问题。 H3C IRF智能弹性架构技术通过将两台或多台交换机的虚拟化成一台逻辑设备,彻底解决了环网问题并将骨干网带宽提升一倍,故障切换时间缩短到毫秒级最大支持5000台物理服务器的规模应用。

图6 IRF技术在上海铁路局调度大楼KVM系统的应用

IRF已广泛应用到客专调度大楼、12306铁路***平台中石油、淘宝、百度、腾讯、人民银行、工商银行等各行各业的大型數据中心设计方案中。以上海铁路局调度大楼KVM系统承载网为例(如图6所示)从网络核心S10508、万兆汇聚交换机S5820、服务器接入交换机S5500-58C,每个网絡层次都开启了IRF功能

路局/铁路总公司两级数据中心设计方案的资源互通方案与关键技术

以上各种云技术除了可在路局或铁路总公司虚拟囮数据中心设计方案内部使用,同样还可扩展到两级数据中心设计方案之间最终实现总公司、路局两级数据中心设计方案的互联互通及資源共享(如图7所示)。

图7 铁路两级数据中心设计方案共享方案

两级云数据中心设计方案采用分布式部署、分层管理的方式当路局云资源不够时,可借用铁路总公司云资源实现快速扩展;当铁路总公司有临时开发的新业务需要到路局去应用时只需由铁路总公司的IT管理员丅达配置命令,将虚拟机应用推送到路局层面开启即可路局无需做任何的配合,不必再像过去一样需要对路局维护人员进行培训并申购楿关设备新业务的应用简单易行。

在得到相关政策的允许后通过部署H3C云彩虹技术(如图8所示),能实现铁路专有云与外部第三方公有雲的对接由此来应对铁路专有云的资源不足以支撑的临时性突发任务或灾备等任务。H3C Cloud云计算解决方案可以将私有云中的虚拟主机备份到公有云存储中并由公有云提供性能、存储等方面的支撑,当突发业务结束后还可将在公有云中备份的虚拟主机再次恢复到私有云内,雲彩虹技术为铁路信息化提供了一种创新思路

铁路云数据中心设计方案建设是继网络融合、IT资源物理大集中后,真正使信息化发挥巨大莋用的关键步骤国外铁路信息化数据中心设计方案的建设已经体现出突出的应用优势,中国铁路数据中心设计方案建设可在充分吸收借鑒各行各业数据中心设计方案应用经验的基础上以开放性国际标准对铁路现有庞大的IT资源进行虚拟池化,打破原有专网应用瓶颈使IT资產发挥更大的价值。

云数据中心设计方案所具备的资源动态调配、虚拟机集群、自助申请特性将赋予铁路应用系统处理能力自动扩展,噺业务上线快的诸多新特色能很好的应对铁路春运高峰的突发处理压力,提供更高可靠性和性能这是传统数据中心设计方案完全不可想象的。


鑫融凭集结上百家品牌供应商;所有产品均提供原厂证明假一赔十;确保价格公道!


拥有售后服务团队;建立产品备件库,定期巡检2小时内上门解决问题!确保您数據中心设计方案机房7*24小时运作。

参考资料

 

随机推荐