IDC公司怎样的工具才能实现运维自动化工具?

VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

11月4日,在第二十七届中国国际金融展上,蚂蚁金服联合国际数据公司IDC发布《移动金融科技助力新时代金融机构转型升级——中国金融级移动应用开发平台白皮书》(以下简称《皛皮书》)《白皮书》指出,在企业数字化转型浪潮中,移动化、场景化、智能化成为金融业务的重要发展方向,金融机构正全力推动零售转型,加速执行移动优先战略。

金融机构迫切需要引入新一代移动设计开发思想

IDC中国助理副总裁周震刚表示,移动金融业务场景的爆发性增长、“數字化原生代”的迅速崛起和“数字化移民”的不断增加,都是推动金融机构执行移动优先战略,实现零售转型的重要因素

他认为,熟悉移动應用的“数字化原生代”在追求丰富、高频、优质移动金融服务的同时,也加速了金融机构业务模式的深刻变革。金融机构围绕客户的场景囮进行业务布局,通过人工智能、大数据分析等一系列数字化技术带动业务创新,不断开拓移动金融业务场景,为客户提供无处不在的、内嵌式嘚金融服务

然而,呈现爆发性增长的金融移动应用需求对金融机构围绕移动端的业务开发和保障能力提出了极大挑战。IDC调研显示,38%的受访对潒表示技术能力不足是金融机构发展移动应用时面临的主要挑战,同时,80%的受访对象表示提升技术能力来满足快速迭代的业务需求是移动金融戰略的主要目标在这样的形势下,金融机构迫切需要引入新一代移动设计开发思想,利用先进的移动应用开发平台实现在开发、运维、管理鉯及快速迭代方面的一系列变革。

周震刚认为,移动应用开发平台是面向企业的、与移动业务有关的综合能力开发平台,它应能覆盖移动应用嘚全生命周期,包括开发、集成、部署实施和运维管理等不同阶段,为APP的开发、测试、发布、运营及运维提供一站式解决方案,因此,应至少具备鉯下主要特征:

敏捷的开发能力: 即具备统一的开发框架和规范,拥有支撑模块化开发的丰富组件,并利用一体化的管理实现极短的迭代周期如:采用统一的开发平台和开发框架,引入DevOps研发协同工具统一管理包括开发、测试、发布环节在内的应用程序的全生命周期。

稳定的平台性能: 针對高并发、大流量的场景,采用高可用架构和组件优化等技术手段综合保证稳定的移动应用性能如:显著提升APP开启速度,快速定位和解决白屏、卡顿等问题。

移动体验优化: 引入移动时代专属的设计思维和业务模式,针对前端设计和交互进行有效优化,提高移动端使用体验

丰富的场景化解决方案能力: 聚焦金融领域的业务特性,输出标准化的应用功能组合,提供面向生态的能力闭环。向其他合作伙伴或行业集成商开放接口,支持第三方的标准化接入,引入第三方的行业解决方案能力如:具备第三方场景的H5、小程序接入能力。

智能的运维管理: 除自动化的运维工具外,还需要融合大数据技术、机器学习、智能算法等,实现自动化的智能分析、告警和预测,支持IT管理者做出精准决策

数字化运营能力: 数字化運营方式深入洞察业务本质,运用数据驱动业务增长,提升用户使用价值。如:运用用户行为分析工具,对包括拉新、促活、成长环节在内的用户經营全生命周期进行管理

金融级移动开发平台如何选型?

除了要具备覆盖移动应用的全生命周期的能力,统一的开发框架、强大的移动中台囷全面的资源整合能力也是移动开发平台不可缺少的能力。周震刚指出,金融机构在选择适合的金融级移动开发平台时,需要从产品功能技术、产品交付过程、行业成功案例以及数字化运维能力4个层面进行考虑

产品层面的功能完备性和技术先进性

企业移动应用开发平台应首先具备符合当前开发要求的完备支撑架构,包括后台连接管理、移动中台和客户端等不同范畴内的各种对象、接口、框架、功能、组件、算法等。通过开放的平台架构汇聚来源于不同厂商的技术子项,保持在业内的技术领先地位,代表移动应用系统各层面的未来发展趋势此外,还应關注移动应用领域的安全问题,为建立具有移动特性的安全保障体系提供技术指导。

行业内的成功的实践案例

实践经验对于打造优秀的产品具有十分重要的意义,企业移动应用开发过程需要与行业特性和应用场景相结合,平台中的宏观框架和微观细节都应切实经受多个项目的实践檢验和反馈修正过程,才能真正成为可堪大用的能力基石考察平台厂商在企业所处行业的案例质量和丰富度,是快速评估平台厂商能力的有效途径。

金融移动应用系统和APP承载了远超传统金融IT解决方案的大量综合职能,往往与后台服务端多个横向和纵向的系统相连接,因此部署过程複杂,需要关注各种环境和组件的安装与调试优秀的企业移动应用开发平台应能利用智能、高效的流程管理手段降低部署的复杂度,简化安裝操作程序,并有能力支撑系统上线后的长期运维保障,与金融机构的既有基础架构、核心系统、数据服务及其他系统实现协同发展。

对金融機构服务和运营的支撑能力

企业移动应?开发平台应该具备出色的个性化需求管理、定制开发和升级改造能力,助力企业用户开发出符合移動战略和业务特点的移动应用系统此外,围绕移动应用开发平台的技术支持、培训和技术咨询服务也十分重要,厂商应具备符合企业用户要求的服务质量和响应能力。平台还应将目光扩展至与目标企业相关的整个商业生态和ISV生态,帮助企业通过数字化平台建立更为广泛的合作共贏局面

最后,周震刚给正在数字化转型道路上的金融机构提出了自己的建议。他认为,蚂蚁金服的金融级移动开发平台mPaaS是目前市场上比较领先的产品,相较于其他厂商产品,无论是产品功能还是技术上,mPaaS都更具优势尤其是在技术深度方面有深厚的积累,可以有效地提高App性能和产品体驗,同时借助移动中台、灰度发布、拆包等先进理念可以有效地加快研发效率和对运行期的管控能力,通过人工智能、生物识别、大数据等创噺技术的应用可以提供更好的数字化的运营能力,支持业务创新。

【需获取白皮书完整版,添加蚂蚁金服科技2号(Ant-Techfin02)进入“白皮书”交流群,获取第┅手干货】

}

高密度与大数据中心的运维管理

摘要:当数据中心与高密度和大数据产生了关联这样的数据中心通常意味着“体格”上的庞大。运营一个庞大的数据中心显然不是一件輕松的事情

当数据中心与高密度和大数据产生了关联,这样的数据中心通常意味着“体格”上的庞大运营一个庞大的数据中心显然不昰一件轻松的事情。数据中心从硬件上的技术提升到软性的运维体系的变革,关键还是要看从专业角度的经验积累从从专业服务厂商戓者其他领先用户学习,然后将这些做成规范通过自动化的手段将其实施。本期《戈友会》邀请到了国家气象信息中心业务与园区电讯保障室副主任孔令军与IBM全球信息科技服务部高级服务经理李强就高密度与大数据数据中心的运维管理进行了深入的探讨。 蔡红戈:各位觀众各位网友大家好欢迎大家收看由天极传媒比特网和中国计算机用户协会机房分会共同主办的书记中心访谈栏目歌友会。我们今天的主题是数据中心的运营管理我们今天有幸请到了两位嘉宾,一位是国家气象信息中心业务与园区保障室的孔令军副主任

蔡红戈:另外┅位是IBM的高级技术经理张强。

蔡红戈:有幸跟两位一起探讨我们数据中心的运营管理就我所知数据中心会分成很多不同的类型。包括这種高性能计算型和高密度型或者不同的专业公共IDC等等,我们的运营管理是不是也有相应的不同的类型的划分呢

张强:这个确实是数据Φ心从规模从能耗确实是有各种各样的分发,但是从IBM服务的理念来说我们主要还是依据客户的业务需求以对这个数据中心作为承载这个業务业用的这个运行基础架构,它提出各种各样的需求所以我们是按业务的关键度来分的。比如说刚才蔡总您这边提到像一些公共IDC它嘚特点是里面有不同业务需求的用户在里面,对IDC基础架构的运维就要求是服务于不同的服务等级以及它有快速的应变能力来满足不同客戶入驻。对于不行的银行金融企业本身他对业务关键性要求是最高的,尤其是像环球金融一体化他对系统的高可靠性保障要求是非常非常高的。所以这种是在我们运维服务当中是最高等级的像孔令军作为国家权威的气象部门,特别是通过央视发布的消息也是分秒不能絀偏差的我觉得这个也是最少也是一个高等级的保障。所以我们认为从服务的角度来讲业务的关键度是数据中心可以参照的一个标准。

蔡红戈:大家可能不太了解孔令军作为我们国家气象中心的园区业务保障室的领导,管理着我们这个国家气象局的数据中心这个数據中心的特点是这种高性能计算类型的,而且高密度的高可靠性要求的,孔令军可不可以在这里给我们广大的用户介绍一下我们国家氣象局的数据中心数量规模以及我们日常承担的这种责任呢?

孔令军:好的我们国家气象信息中心是作为中国气象局的一个主要的数据管理部门,它承担我们全国气象系统的所有气象资料气象数据的一个实时的通信、储存到后续的数据加工制作,一直到提供给天气预报荿品的产品之间这一个全内容的过程期间主要经过三个环节,第一个环节首先是通讯要把全国2千多个基准台台所有的实时的气象资料收集到国家气象局,第二把这些资料实时的储存起来第三个是根据各个不同的用户的需求,比如我们有气象台做天气预报的需求有输絀预报中心他做输出预报预算的需求,还有其他的等等像卫星中心的实时的天气云图的传输等等把这些数据全部汇总收集加工成定制的┅些产品,然后再分发给各个用户期间主要是业务系统主要分三块,就是刚才说的有国际国内通用系统这是一大块,第二大块是储存系统第三大块是高性能计算系统,这个高性能计算主要服务于数据预报中心它的数据预报模式的一个计算过程。从目前我们各个系统嘚一些应用情况来看我们目前国内气象信息中心承担总共是有8个机房,这里面从功率情况来看的话主要还是以高性能计算为核心,为什么因为高性能计算它占用了可能我们整个信息中心所有基础设施资源的大概60%―70%以上,尤其是能耗和制冷量方面占绝对的大头其他的系统重要性很高,比如通信等等但是它在我们这里面它对基础设施方面来说的话,相对比高性能计算简单一些因为它的整个的机房的功能密度相对来说还是比较低的。所以从目前国家气象信息中心承担的机房的情况来看目前有2千多平米的机房基本上全部在用,还比较難以满足我们未来业务的需求所以这个也是为基础设施运营管理带来很大的压力,从目前我们实际的数据中心的机房应用情况来看我們现在对于核心的气象局计算这个机房我们在2004年,它的单位功率密度就达到1.5千瓦每平方米我们是采用风能的一种方式制冷的,到现在已經连续运行了将近十年的时间整个系统运行还是比较稳定的,没有对设备造成一些重大的导致设备一些重大的故障第二现在我们刚刚建成一个机房,它的功率密度已经达到5千瓦每平方米所以这是我们正在实施的一个方案,它可能要求是全部采用水冷背板这种方式机房内全部采用水冷设备,这个也是正在建设的可能对我们未来的一个运维运营管理也是带来一个很大的挑战。所以也希望借这个机会能夠与IBM作为一个专业的继承方还有一个咱们机房协会能够对这个运维管理方式有一个更好的深入的探讨。

蔡红戈:孔令军刚刚介绍了我们這个国家气象中心数据中心的一些规模和特点我也想知道就我们来讨论的这个运营管理的模式来说,咱们以气象局的数据中心为例来说說咱们这种类型的数据中心运维管理它有什么特点凭咱们的运维管理的经验给我们介绍一下,比如我觉得很有特点的像您说的功率密度達到1.5千瓦还仍然使用风能而且维护使用得很好,这也是一个很有特点的事情您给我们用户能具体介绍一下吗?

孔令军:好的因为现茬国家气象信息中心自从大概是70年代就已经有机房来进行建设,并且是第一批使用油船的一个单位我们这边从建成到现在30多年一直在不停的应用国产的各种高性能计算机,配套基础设施人员我们都已经有一个延续性。一直到现在目前为止我们国家气象信息中心所有的数據中心的基础设施都采用自营的方式由自己来进行维护我们保障室一部分职责是承担整个基础设施的运营管理。从目前像2004年建的1.5千瓦每岼方米功率密度的一个高性能计算机房来说的话当时采用风冷其实我们在设计阶段的时候已经考试到了,因为业界基本上认可这么高功率密度单机功耗能达30千瓦的时候已经不适合用风冷了但是当时我们受各种条件的限制,为什么因为是国家气象信息中心位于中国气象局单元以里,它的定位要服从于整个园区的规划所以说当时的条件不具备大规模应用水冷的条件,所以在设计阶段还采用风冷风冷在規划设计的时候我们更多的主要考虑几点。第一点就是它的一个制冷整个制冷的一个雨量,因为制冷系统是靠增大雨量相对来说能效仳要高一点。这种方式有一个代价来支撑整个高密度的机房的散热主要散热也是带来一个很大的困难,其实都是存在的这个只能是我們通过各种应急预案,包括在运维管理过程中我对每一个集中热点采用独特的方式比如我可以采用一些对它的集中热点

采用强制风冷这些措施来改善,但是其实到目前为止这是不能解决的所以说真正的从业界普遍来看,10千瓦或者7千瓦是作为风冷的临界点我觉得还是有┅定的道理的。如果太高了以后在后期运营管理确实难度很大我们也是以各种很多代价,包括人员我们现在整个基础设施运维值班人員将近20人,整个就全围着数据中心来服务从人员配置上我们还是比较强的,响应也是比较及时条件也很具备,我们基本上很多老职工嘟在大院内做他有什么事情的时候能够在第一时间反应,就像晚上发生故障之后他能第一时间反应处理。可是我觉得作为一些很多其怹的一些部门不一定能够具备这样的条件包括我们现在随着老职工的退休,年轻同志都住到院外之后这种也具有不可复制性,为什么以后的响应时间会越来越长,如果是还采用这种方式它要求就是反应要快出现问题反应要快。所以说这个可能后续的时候也不一定完铨能支撑所以说在新一代高性能计算机引进的时候,就提出了一个第一个是要求采用水冷机柜,这是要求第一必须要要求的必须采鼡水冷机柜。第二个是在机房整个的制冷考虑的时候还是要适当的预留一些,因为现在对于整个机房的运维管理来说核心还是设计设計阶段充分考虑了它的运维方式之后,后续运营管理才有条件来服务得比较好如果前期设计阶段出现短版的话,可能会为后期的运维管悝带来难度从目前来看的话我们感觉是作为一个高密度的一个数据中心来做,这是目前的一个主要的简单的初步的一些经验

蔡红戈:謝谢孔令军给我们大家介绍了气象局数据中心运营管理的特点和经验。刚才孔令军提到了除了我们这个数据中心的形式这种高性能计算高热密度之外,也提到好象我们这个数据中心的运维管理主要是以自己的技术人员管理人员为主,自营型的运维管理这种类型我们也想知道像这种政府背景,行业内的数据中心以自行运维管理的类型在我们运维管理当中有哪些容易遇到的常见问题呢

孔令军:具体说一丅我们目前的运维方式,我们目前运维方式主要是有一线的值班人员他是24小时值班的,二线的技术支持人员他是作为发现问题第一时間进行处理解决的。我们两线来作为一个两线的配置我们人员数量也是为这个服务的,整个人员数量是比较多的其实整个对国家气象信息中心来说,相对于其他专业IDC我们机房面积不是特别大但是其实人员配置数量其实不少的,这样也是我们在目前的人员在近期一段时間运维情况来看的话其实这也是从我们感觉这种目前的运维方式自营管理有它的便利性,第一条我对设备能够有很好的了解第二条也昰刚才介绍的对它的响应时间有一个很好的更高的要求。第三从成本上考虑成本上考虑就得考虑我们当时也做过评估,如果把所有的设備专业委托给第三方比如专业维护机构来进行维护的话如果要保持保证我们目前这种响应时间的话,可能付出的代价也是比较高的因為现在我们要求的响应时间是30分钟之内必须得赶到现场,发现故障30分钟之内必须赶到现场我们很多做了一些外包的调研,但是外包一直沒有实施但是我们做过很多调研对各个服务公司也做过一些了解。一般现在行业比较普遍的是2小时已经算是比较快的能赶到现场。但昰2小时这就要求你后备的制冷后备的人员一旦出现故障之后后备的时间很长,这个在前期建设的时候会带来很大的成本压力第二个也會对机房的面积带来很大的压力,这就需要在机房建设的时候就是要对你的运维方式有一个综合考虑这样第一是人员是否能够支持自己,第二是你的设施外包的时候有个响应时间响应时间的时候现有的基础设施系统这些设计能否满足整个外包的响应时间。第三可以采用24尛时外包给所有的专业服务公司24小时,这就是后续的运维经费是否能够支撑都有它各自的特点,这个需要整个的对数据中心管理者在湔期进行设计的时候对自己有个清晰的定位。我是侧重于哪一点来解决这个问题然后针对这个我再采用不同的设计,不同的运维管理模式来共同支撑这个事情现在外包方式我们现在也在做尝试,主要的原因是外包的话你可以找厂家很多找专业第三方的机构他更专业性,可以解决得很深所以我们现在逐渐已经向自营加外包的模式上进行过渡。自营主要是发现故障之后第一时间先把这个故障给屏蔽掉不应该整个系统运行,然后再找外包服务提供商他们来现场解决这个问题所以目前我们主要还是已经逐渐步入到这种模式了。

蔡红戈:孔令军的意思是介绍了我们这个本身气象局数据中心运维管理方面的特点同时也提到这种模式的关键点在于我们的比如人员的技能,峩们的相应时间能不能及时另外我们的备品备件这些设施是不是自有。那么张强经理作为IBM的高级技术经理一直以来接触数据中心的运維管理也是非常的多,非常的有经验您能不能给孔令军做一些补充呢?我们数据中心的运维管理从几种不同模式下常见的问题有哪些

張强:我觉得孔令军从70年代延续下来的气象局运维的管理文化我认为经验是非常丰富的。IBM更多的是从专业技术的角度看这个问题很多服務理念最初是从像美国西方引进来的,所以很多都是条块化的如果从运维的分类来讲,IBM通常会说第一种就是像孔令军原先完全是自己来莋运维的第二个也是你现在正在做的我们有些共同运维,有些专业厂家专业的技术人员,专业服务公司跟用户的一些专业人才共同去維护职责划分第三个现在也有蛮多的,尤其是一些刚才我们提到服务等级不是非常非常高的像大型的金融企业,其他一些数据中心也囿一些专业的全部外包的包括一些国内的有些IDC或者是一些ICP他自己的机房,我们接触的用户当中是有这样打算的至于孔令军刚才讲的很恏的一点,就说至于采用哪一种运营方式除了考虑到系统不出问题,还有一个成本确实也是非常要关注的一点但是IBM从成本角度我们通瑺会讲总体成本TCO的角度看,所以我们如果从人员的技能包括人员成本以及你采用的一些服务设施设备,包括前期的系统平台总体成本按照比如典型的是三年的外包合约其实大多数用户来讲其实整体成本去核算的话还是蛮有优势的。所以这是一个平衡点你服务要求特别高,你说我24小时除了一线值班的二线的一些技术人员就必须留驻现场,成本肯定会高的所以孔令军你们气象局是有先天的优势,所有嘚技术人员都处在那个大院里通常所谓全面外包,我们从服务的支持层次来讲是分三层的刚刚孔令军提到你这边是两层一线的值班团隊,二线的比较有经验的分各个系统的一些专业工程师大致是这样。IBM多了一层第三层就是设备厂家其实可能你操作的时候也会涉及到這样的问题,可能你没有把它分类成一个厂家的层面其实IBM这样分是有道理的,因为我们通常做这个运维为了持续的运维我们户借助一些管理的平台有些所谓工单的推送是自动发到相关的责任人的。作为设备厂商有一些关键设备出问题在你值班人员意识到的时候系统自動已经把一些必要的信息自动通过工单转化到第三层的有关人员了。所以这是为了快速响应当然赴现场的时间取决于地理位置。其实运維是一个很大的话题不仅有这样的组织架构,有这样的管理平台包括刚才孔令军也提到了你从设计有些先天不足的问题就得把它避免。其实运维从IBM的经验来讲是从这个数据中心的规划的时候就应该考虑的一个问题首先你制定了你这个业务的运行目标,相应的你就会考慮我这个运营将来要注意哪些包括组织架构包括管理模式你都要去考虑这个。在这个设计当中你肯定要考虑我未来的业务发展就像刚剛孔令军提到说,我当初是1.5千瓦每平米后面发展到5千瓦甚至未来还会走高。这个在设计之初如果是没有请一些非常专业的咨询顾问来分析你的业务的发展需求的话可能就会留下潜在的短版。所以到了施工其实运维也是在一些施工现场我们也是会请专业的人员去关注,未来是不是有些设施会方便去运维举个例子,我们曾经施工的时候我们现场的技术人员发现有些管道施工那个阀门装得很高你要开关嘚爬梯子。这种如果纯粹从工程完成的角度没有问题但是从运维角度一看就有问题。非得借助一个梯子或者这个搬的方向空间是不是利于人员操作。其实这个运维从前到后就是这样到了后期特别在国内差不多在过去应该两三年时间,我们现在慢慢也关注全面的系统驗证链条。过去可能我们在工程方面不太强调这块过去只会讲初验中验,为什么验证链条这几年变得这么热了呢因为大家慢慢考虑到這个数据中心对业务的关键性,容不得半点差错容不得这样的短版。所以这个验证链条是模拟一个生产环境全面去做了测试,压力测試包括在运维团队在全程参与这个验证链条,他对整个系统的熟悉程度也是跟你过去大家设计归设计施工归施工,运维又是另外一波囚现在的理念慢慢都淘汰了。所以其实国内很多像包括孔令军这边我能感觉到非常有经验你们可能也是这么长的时间系统不断的升级,碰到各种各样的问题总结起来的一些很好的措施所以运维整个过程这个大的话题用IBM的话来讲就是消除短版的过程。

我们今天定T3也好T4吔好,如果今天有一块短版只有达到T2你整个就是这个系统就不可能达到T3、T4,所以我想讲的差不多就是这样的

蔡红戈:其实张强给我们介绍了说首次提到了我们运维管理上不同的支持层次,也提到了其实运维管理的他是有很多不同的在数据中心从它的业务需求,业务等級以及它初期规划设计的时候还有施工建设当中对后期运维管理的种种提供方便的这种考虑都是有关的,所以运维管理能够达到什么样嘚效果跟这些都是有关的由此看到其实我们运维管理当中也分很多不同的阶段和环节对吧?

蔡红戈:张强能不能给我们介绍一下其实茬运维管理当中,我觉得广大用户会比较关注有些重点环节是我必须要提前考虑或者说我必须要做好才能保证效果的,你能给大家重点介绍一下这些环节吗

张强:我前面也提到运维这个消除短版这样一个从前到后整个大的环节,从IBM强调来讲我们关注的是前瞻性所谓前瞻性英文叫prospective,前瞻性包括预防性的维护应急预案的制定,包括定期做一些应急预案的演练所以这样你在做系统链条就是数据中心真的茭付使用之前,这些过程都做过那么后续的运维团队其实是一个验证链条维护的一个延续。所以我们会强调去做一些前瞻性的防范包括定期的保养,这个是分得非常非常详细我们会强调说按照这个标准操作流程,英文这个缩写是SOP它什么意思呢?很多人其实知道SOP但昰从IBM实际操作经验来讲我们会把一些关键设备的做预防性维护的事情会分得很细。分得很细就是说可以责任到不同的人这个举一个例子,很多人都知道国内尤其是电器生产厂商他是一个流水线的操作SOP其实是把复杂的东西给细分到简化了,可能对人员的技能的要求也会变嘚不是那么高比如说对UPS内内外外很多的不同的组建去做预防去维护的时候可能有两三个工程师做不同的事情。这样好处就是说人员成本鈳以总体控制还有相互的人员的比如有某人,比如有事情来不了这个相互的也会容易去管理,不会因为两个加起来太复杂了所以运維这几年从大的趋势来讲,在技术层面来看一个是大的提高自动化毕竟人是有惰性的,会有疏忽一个自动化以后然后我们还强调一个SOP嘚专业化和细化,就是把复杂的问题细化到简单操作我觉得这是一个两大趋势。过去可能包括IBM自己以前也是集中到一些专业的专家但慢慢慢慢觉得说这个专业专家如果因为个人原因或者因为自动化的系统没有能够及时的去做一些防范性的东西,造成人为差错其实统计丅来是数据中心出问题是最大的原因。我们说人为差错所以这几年SOP我们在做运维的时候,我们特别强调IBM在美国那边也是,像我们在美國的数据中心其实这个数据中心很多人不知道,它建于一九六几年到现在为止近半个世纪。它为什么可以说到现在还用而且是北美咜现在是总控中心,它就是管理了一百多个其他的数据中心的一些运维的自动监控的信息在那里监控的他能够持续半个世纪以来保持这樣一个非常成功的案例,完全得益于运维的不断的革新和创新其实运维更多是一个软性的东西,我们说服务为主他不是说今天我买一個产品就能解决很多问题的,他是一个软性所以我们真正是我们是一些在操作上的革新和创新,像我刚才提到的SOP的强化加强预防性的維护,加强应急预案的演练从这些角度去提升,我们说的东西不是说今天发明了一个什么东西。这是我是想讲讲IBM在这些方面的考虑

蔡红戈:孔令军听了张强的介绍以后,有没有凭自己的运维管理经验有所补充或者对他这个有什么体验?

孔令军:刚才我觉得张强他们從一个专业的服务提供商数据中心的服务提供商我觉得可能作出了一个比较好的诠释,对于整个的运营管理中心重点关注的环节比如對标准SOP这个概念提出来以后,我觉得这是一个最基本的因为我们更多的是一个数据中心的整个的维护方,但我们更多的其实还是作为一個用户方来管理数据中心的所以从我们自己这么多年整个对数据中心的管理维护等等这些角度来说的话。跟大家一块儿说一下做一个茭流,对我们来说的话对我们整个数据中心的运营管理,首先我们把它分成两大块第一条是对外的就称为服务,服务对象我们现在主偠是服务基础设施这些服务对象包括所有的有些硬件需求的,里边放置的空间整个对供求的需求等等之类的,我是否能够满足他这个需求我需要对外给他们提供服务。第二个对内是保障保障所有的数据中心的整个基础设施系统能够正常的运行,这是两方面组成了我們整个的运营管理的概念在这个其中我们重点关注的环节,刚才张强已经说了比如自动化、细化我觉得这个概念提得很精辟为什么?洇为在运维过程中好的比如说是人在集中管理是一个非常好的,比如非常经验的非常熟练的一些技术人员里面服务能够把数据中心做得佷好不好的也是如果人为的因素参与太多的话有很大的不确定性,在运营过程中人是靠经验的经验过程中有对有错,有现场的临场判斷如果判断失误有可能就会对数据中心造成很大影响。刚才说一是自动化因为更多的是要通过正常的设备的运行检测对这个设备运营狀态,我实时能够了解他目前的运行状况在这个运行状况基础上我们也是分为几个。自动化的检测他的运行状况之后咱们能够对所有嘚数据进行分析评估,对整个系统的运营状况有一个总体的概念性的把握比如哪个地方是运营正常的,哪个地方未来可能有潜在的隐患包括对他做分析评估,这是目前我们做的第一步因为气象部门和其他行业有一点区别的,我们气象部门更突出注重的是一个汛期服务保障汛期5到9月份是汛期,6到8月份是主汛期这是我们全年的工作最核心,也是跟咱们整个气象保障服务的有关系比如6到8月份洪水台风等等是频发的时候,一旦比如气象预报有什么失误的或者造成什么中断有可能会造成很大的一些经济、人员甚至政治上的一些损失,所鉯说我们在这个期间我们每年四五月份要对所有的整个中心的基础设施情况要做一个综合的检测在这个基础上做分析评估,出评估报告发现问题及早排除隐患,有些故障尽量排除隐患发现出来要及早进行解决。这是我们在运营管理中第一个要关注的一个就是从用户的角度来说第一个要对数据中心经常做一些评估一是它的运行状况,第二个我们也是在实际运维过程中也突出的感觉到这个问题现在在數据中心建设的时候它的IT设备的发展是非常迅速的,还有业务需求量发展不是成正比的增加有可能是成指数级增加的,所以数据中心的IT設备规模持续不但的扩大但是基础设施在那儿摆着是有限的,可能很多年才能进行更新或者更新之后容量受到限制,所以我也要对它進行分析评估之后给后续的比如需要设备新引进的时候,我需要对它有一个评估比如我估计还能支撑多大一个业务系统,我就知道场哋这些还能支持多大的系统这个需要随时的反映给相关职能部门,他们在做决策的时候要有一些一个优先级的考虑比如哪些业务系统昰优先需要放进去的,甚至可能时间上要晚但是他要排在一些设备优先级的前面,这也是我们的定位在运维管理中第一要对决策层提供一个数据的支撑,对现有的系统运营状况还有未来的可用容量有评估分析,然后是他们在数据中心发展的时候心里有一个数第二个茬保障上更多的侧重对设备的一些定期的维护保养,这个维护保养最好通过一定的制度一定的流程等等这是一套体系的系统刚才张强说嘚一个很经典就是要细化,前期我在做分析的时候要细化列得越多越好,但是在最后你要提炼出一部分来这个就是由繁入简,最后你給人执行的时候不能太多因为太多的话执行起来有难度。把整个核心的流程全部制定出来同时也是按照SOP的概念每一个程序都有一个标准化。在这个过程中减少人判断的因素也设计人员更新交替等等都存在这种状况,这个过程中只要不管谁犯了错能拿到标准化流程按部僦班的做之后都能够顺利的完成这些工作,这我觉得是对在运营管理中人员的考验怎么能制定出这个,这是我觉得最核心的一个工作如果能把这个制定出来之后,运维管理我觉得至少应该是成功了一大半以上这是第二条。第三条还有一个就是培训和演练尤其是演練。因为我工作也是十几年真正十几年比如像制冷系统等等配电系统这些,没有故障操作的时候时间很少的长时间不动之后你天天记吔时候也有疏忽了,第二个你长时间不接触之后这个概念就淡薄了淡薄了之后万一有突发情况发生这个要求你是第一时间能够精确判断赽速处理,这个带来一个很大的考验怎么来解决这个问题,也是要考虑一个模拟演练演练用实际演练会有,但是这种还是少就算每姩有的话次数也少。所以这也是我们现在正在建立的一套系统叫做模拟演练系统,通过软件方式以软的方面来实现整个故障的分析模擬。第一我对这个模拟建立的时候就对所有的故障肯定有系统的分析和了解对于了解整个设备是有好处的。第二我提炼出来之后我把所囿的故障全部在一套软件系统模拟出来模拟出来之后按照刚才标准化的流程一步步来进行故障排除解决。比如我可以三个月半年进行模擬演练一次万一这个故障发生之后可能就会很快的及时的得到处理。这是我们在运维管理中的三点分析评估,第二个是维护保养第彡个是培训演练,我觉得这三点是我们在实际运营过程中感觉是比较关注的重点几点

蔡红戈:重要环节,张强从我们作为服务提供商的角度给我们讲了SOP的概念和我们几个环节孔令军又通过我们自己的实际的运维管理的经验,对这个进行了一个细化的讲解和补充把这几個环节实际上我们在真正实际管理中如何应用,如何细分进行了一个补充我相信其实我们广大的用户会非常关注这些细节,因为凭借我們机房协会和用户会员多年的交流来看其实很多用户特别关注的一点是在实际操作当中不同行业的用户是如何去实施如何去细化这些环節的。第二个他们会关注的是在这个行业领域当中有哪些新的理念和新的解决方案是他们想通过各种渠道而获得的。今天张强有没有给峩们带来这方面的讯息呢在我们数据中心的领域当中,运维管理的层面上目前有哪些新的创新的技术和解决方案可以提供给大家

张强:我前面讲了运维更多是一个软的工夫,但是不可否认这个软的工夫也是跟上硬件的发展这几年技术其实大大的提升,速度大大加快仳如最早风冷发展到水冷,水冷可能是有机柜水冷背板然后现在应该已经是大概四五年前已经到芯片水冷,直接把冷却水通到需要冷却嘚芯片而且IBM在欧洲已经有成功实施这样芯片水冷的这样的数据中心。除此以外在一些具体的运维操作方面我们这几年我们总结出来的也還是要以专业设备厂商对设备的运行的要求为基础来制定你的运维体系也好或者SOP的更新也好要去做这个工作。也就是说还是要找专业人員只有专业人员把他的这些知识能够精确的贯彻体现到你每天的运维操作当中,就可以把设备的应该说安全运行保障都可以达到最高吔就是我刚才提到SOP,IBM的做法是这样就是我把细化的SOP通过运维管理平台,他以工单自动推送的方式发到每一个责任工程师另外这样的做法我们每一年会请关键设备厂商跟我们的运维团队坐在一起每年审核一遍这个SOP,包括对产品的维护生命周期做评估和检验然后在下一年伱的操作细则这些SOP是会有一些改进和变化的。所以这个运维我就说是一个非常琐碎的事情尤其国内我们用一句中文讲跑冒滴漏,非常琐誶尤其近几年大家对数据中心这个理念的不断提升,我其实前一阵也看到有一篇文章说数据中心就是服务器不知道孔令军有没有关心箌这个。过去我们说IBM的大机后来到了分布式系统,大家可以并行工作完成什么样的应用现在慢慢把这些复杂的系统搬到专用的数据中惢,数据中心就是一个大的服务器所以从这样的一些硬件的技术提升,到软性的运维体系的变革我们觉得关键的还是要看从专业角度峩们有些好的经验,从专业服务厂商向IBM或者其他成功的用户那里去学习然后把这些能够做成你自己的规范,而且通过一些自动化的手段能够实施我觉得是我们认同专业专家精神,专家地位但是如何把专家的思想贯彻到我日常操作当中来。

蔡红戈:把专家的经验把它规范化标准化然后普及到所有操作人员能够去进行日常的操作和维护。

张强:对的其实说到运维的规范化,IBM的服务提法倒不是这样提的IBM用了一个最佳服务实践。现在同行交流也经常用这个词因为这是个无止尽的东西,你永远可以去提升你的运维质量尤其是我们要提升一些运营的效率,节能减排我们过去可能这一方面都比较粗犷型,定性的多定量的少慢慢慢慢你不仅对系统的可靠性也有一些服务嘚水准要求,服务支持性的要求对整个系统的一些每个环节的运维都会量化,就是定量这几年是比较热的一个方向

蔡红戈:刚才张强茬提这个服务的时候,提到了一个节能减排其实我们用户也比较关注这是业内比较受关注的一个话题,数据中心的节能减排我们已经提叻有三四年了在运维管理的这个环节当中如何去推动节能减排,如何能够保证我们这个数据中心的绿色节能也没有一些方案呢?

张强:这个话题我觉得非常好一个是最近几年大家非常关心,确实IBM在这方面也是投入了蛮多包括我们参与国内一些像上海被邀请参与制定仩海市的数据中心绿色节能的这样一个设计标准,并作为被邀的唯一的外资企业所以我们在这一方面也确实有一些研究,从我这边了解嘚情况其实运维日复一日的操作,你要如何去提升你的运行效率大大节能减排,我刚才用了一个跑冒滴漏具体来说我可以举一个例孓。今天机房每个机柜下面如果是下送风的话你会有很多的风孔通过电缆然后通过电缆的缝隙冷风送上来,但是每个机柜的发热量是不┅样的尤其像孔令军这边有一些是特别的热点,你可能要有一些主动送风的措施来定向的强化其实你可能忽略了其他几个不需要那么夶量的制冷的机柜,是不是有效的把那些冷通道局部的优化呢IBM有一些非常实用的做法,他在机柜下面这个地板开口他围绕这个上来的電缆做了那种毛刷填在里面,这样就可以把下面的冷风给阻隔起来不需要吹到这个机柜因为有些比如像布线机柜本身他有一些无缘的东覀为主,不需要太多的制冷他就把这个冷风给它缝隙都堵塞,包括这个机房之间有一些不必要的通道为了节能减排也是堵塞。比如现茬有一些机房从设计的时候就考虑说我是一个无人机房这本身也是从运维节能的角度考虑,有些机房虽然设计的时候是有新风通道的泹是它在运维的时候如果IT系统一段时间不变化,它运维的时候是把新风通道关掉的这也是为了一个节能。而且还有一个好处因为现在國内大气污染很多,如果新风通道有的话可能会造成对机房内部的IT设施带来一些空气污染造成腐蚀如果没有新风这样的风险也可以减低,所以在谈到这个节能我其实去看过很多我们运营商电信、移动这些运营商建得相对比较早的机房,包括IBM造得比较早的一些老的机房咜有一个现象过去我们不太关心,就是过度制冷实际上你这个发热量没那么大,但是空调也不做一些安需的输出这样一些自动化的措施或者你运维上去注意这方面的是不是要及时的开关机,所以有的机房没有多大发热量但是空调是满负荷开的过度制冷过去我们是不太關注,但是IBM在上海沧江自己机房我们差不多在五六年前做了一个评估,发现冬天的时候这个机房九台空调可以关掉2台因为从我们这个機房的热点检测来看,冬天室外环境温度比较低所以环境温度低造成空调可以关掉2台,不会影响机房的运行温度所以这些都是在我们盡管这几年采用了很多自动化的手段去检测去探知这个机房的运行温湿度,腐蚀梯度等等这些情况但是真正去堵住这些漏洞,这些跑冒滴漏问题其实还要我们专业人员的一些敬业精神去参与,可以做到一些节能减排一个很大的效果

蔡红戈:在自己的实际经验当中对绿銫节能,节能减排从运维管理角度有什么想法吗

孔令军:我觉得刚才张强基本介绍了,我看了主要的大致的方式方法基本上都提到了其实可能我这边大概结合我们实际运行过程中有些意见可以介绍一下我们采取一些措施。因为在机房数据中心我觉得他在整个实现节能减排就有几个条件第一个条件是设计,设计阶段考虑节能减排比如说(46:02)等等很多措施,但是这个也有前提条件的比如一般的节能减排設备和投资都是彻反比的,越节能减排效率高的时候他相对来说可能投资资金大,在建的时候考虑有它的制约性这是第一个。第二个茬运维阶段运维阶段其实咱们数据中心按照规划设计建成之后,它实际运行的时候和规划设计肯定会有出入的在这其中其实以制冷系統为主,因为整个比如一个数据中心来说它一个POE值里边真正的基础设施系统占能耗高的主要是制冷,其他供电设备目前的效率还是比较高的所以说制冷系统占了一个为主的能耗,要实现节能减排优先考虑的就是在制冷方面进行考虑我们国家气象信息中心从04年建成新的高性能计算机开始,我们就做过不同的实验来调整他们整个的一个机房的比如(47:11)组织,还有设备的合理的配置选型等这方面我们希望能够做多种不同实验来了解它的一个规律,如果验证之后内容有效的实现节能减排就采用我介绍两个已经采用的方式,第一个就是我们剛才说的也是1.5千瓦每平方米的机房那个机房里配置了14台一百千瓦的空调给那个设备制冷。设计冷量是在机房内设计整个的额定发热量是┅辈多但是实际运行过程中其实整个的空调一旦有一台故障之后,机房温度能够很快上升的我们机房温度曾经出现40度的状况。我们后來分析这个原因后来找发现每台设计容量那么大,但是每台它整个的压缩机基本上常年处于一个很高的负载率的情况下所以我们大概吔是在09年左右的时候,我们把空调的室外机做了一个扩展比如原先是双压机,每个压机增加一个30千瓦的一个额外的冷应器因为我们所囿的室外机全都堆在我们整个楼的楼顶,楼顶之后它会形成一个局部的热导实际上夏季高温的时候周围温度可以达到50度以上。我们规划設计40度已经有一定余量的考虑但是实际上还是满足不了。我们担心有这个问题所以我们就总共增加了28台冷应器,当时成本应该是60多万实际建成之后我们也是对它的整个的内耗又再做了一个分析评估,感觉增加一台冷应器按道理说能耗是增加的但是实际上能耗是减少嘚。我们估算按年平均估算大概应该是减少了在10%左右我们最高的时候夏季运行电流最高的时候到900多安培,现在加了冷应器之后可能能降低仅仅100安培左右基本上将近10%。10%我们整个功耗4百千瓦一算下来基本上两年左右节省电费就能收回投资,这是带回来我们一个最直观的感覺运营管理的时候第一要对他进行分析了解之后,通过一些合理的匹配这些设备的选型和配置它的能耗是能实现节能的,这是第一条第二条刚才张强也提到了整个空调的一些排布包括气流组织这些。我们感觉对于气流组织在实际运行过程中也是很重要的一点因为我們在大部分机房都采用风冷,风冷的机房效率还是比较低的我们目前可能按0.7算制冷效率是很高的,但是现在如果是能够对它的气流组织能够合理的有一个分析再进行调整的话其实它的能耗也是能够有效的提高冷空调的制冷量的利用率。现在我们也对储存机房做过多种分析我们就不断的调整他在每个机房内的一个地板的尺寸位置大小等等,你能明显感应出来运行一段时间之后它的机房温度同样什么都鈈变,条件基本不变的情况提高它的出风口之后它的温度室内温度范围大概是正负两三度左右的变化,这两三度反应的能耗也是一个节能减排的作用再来就带来一个在运维过程中一是可以做模拟分析测试,测试完了之后对他来进行调整优化我觉得这些是在运维管理过程中,可能比较小的一个成本就能带来一个节能减排的效果这种感觉是运维管理中要加强对整个系统运行状况的了解,然后在这个基础仩进行分析评估所以这是我们感觉有这几条的话其实什么都不变的情况下,就能够实现节能减排

蔡红戈:给我们细化了一下分析和解決办法。你是不是能给我们介绍一下因为从去年开始我就知道咱们气象局一直有一个新的业务大楼在规划设计当中,印象里建筑面积在3萬平米左右根据你介绍的这些经验和张强介绍的这些方法,是否我们在新的业务大楼数据中心的规划设计当中已经采用了某些更新的技术方案或者设想?是不是对未来的运维管理也有一些新的考虑呢

孔令军:因为目前对于我们新大楼,因为我们是以气侯变化项目就昰以气侯变化应对决策执行系统功能这么一个项目名义申请下来的。整个项目其实就为了应对国家气侯变化作为一个决策分析评估的基础所以它的气侯变化实际上我们在其中既然他是为气侯变化服务的,其实它从自身的角度来说第一条就要实现尽量可能在现有条件基础上能实现相对来说绿色节能因为气侯变化最核心的是二氧化碳排放量,二氧化碳排放量可能反应了节能减排所以说这个我们在设计阶段吔是在目前已经设计基本算是初步完成了,初步完成之后我们在设计阶段已经在尽量是能够采用一些措施来实现他初步的绿色节能包括丅来有一些措施包括第一条我们机房采用的也是一种模块设计,比如说我们可以2百或者4百平米作为一个模块化机房里面的制冷系统是独竝的,(53:04)的供电也是独立的因为我们的业务系统在发展过程中也是每年每年增加,比如每年增加10%20%要不断发展过程,如果机房面积不是建得非常合适的话比如机房面积过大就带来一个问题,就是前期投入运营很少但是机房这么大面积可能需要制冷这些设备运行比较高嘚这些,这是第一个第二个机房建成之后其他空间都不用,机房建小了有可能大的系统放不下所以我们怎么解决这种问题?我们就是准备采用一个模块化2百平米一个2百平米一个,我可以给你需要一个一个往上累加这种方式实现整个机房根据业务需求量不断的扩展,盡量把这个业务投入运行的机房基础设施放在一个最小范围之内把它的运行效率放在一个最佳的效率之内,这是第一条措施第二条措施也是针对刚才说的机房基础设施系统能耗大头其实是制冷,我们全部采用水冷的方式水冷HPC占我们大头,其实那个机房里边占的比例比較高还是我们高性能计算机性能未来规划的高性能计算机,这个我们还是把它也是优先考虑用水冷机柜这种方式对其他那些机房也优先采用水冷的空调,这样通过水冷整个的制冷效率还是要比传统的氟利昂制冷要高一些所以这个是第二个措施,制冷方面尽量采用水冷淛冷的方式第三条措施就是对于我机房内它的一个气流组织有一个更好的优化。因为现在我们的楼里面是我们大楼90年代建的楼的现址佷难实现一些气流组织优化,楼层很低等等我们那里边比如通道,因为现在很多数据都采用这种所以在那里面我们也是刚刚引进,有條件我们才引进这个系统封闭这种模式,封闭的时候结合刚才模块化那种方式我们开空调初步构想是各个模块机房之间的空调既能相互独立,又能相互并联在一起共同来执行具体方法可能送风也采用风道这种方式来实现,几个机房可以自由组合来实现整个机房应该昰一个随意的组合。所以这是目前是在设计考虑这三点主要是来实现我们整个比如大楼的机房的一个节能效果。

蔡红戈:感谢孔令军紟天我们的时间也差不多了,主要的这些问题给我们广大的观众和用户介绍了我们这个数据中心运维管理的几种方式包括运维管理当中嘚一些重点环节,孔令军也通过气象信息中心的经验为我们详细的分解了一下这些关键环节和方式当中的一些具体的分析方法和实施措施张强也为我们介绍了目前IBM能够给大家提供的最新的解决方案和一些服务的方式。希望我们这期的内容对我们广大的用户有所帮助下面請我们两位嘉宾分别对今天为大家所讲的内容做一个总结,用简单的几句话提醒我们的用户重点关注哪些内容首先有情孔令军。

孔令军:我觉得作为一个数据中心的运维管理我觉得最核心的一个其实就是几点做好了我觉得运维管理基本上是能够有事半功倍的效果。第一個就是规划设计要做好因为运维管理基础还是取决于硬件这些,硬件设施构架没有搭建好的话运维管理有很大的问题。第二个问题是囚员配备因为所有的运维管理都是靠人来实现的,所以说人员配备的时候一是人员层次结构要合理有高精尖的人才在里面做一些详细嘚分析评估,也有其他一些人比如确实基础设施,数据中心运维其实有些脏类的活所以需要不同工种的人相互结合,这是第二条第彡条就是规章制度的建立,规章制度只要所有都纳入流程你的运营管理可能基本上已经是成功了90%。这是我说的主要三点

蔡红戈:张强經理有什么要对我们广大用户说的?

张强:我们现在国内有这么多的数据中心每家都有各种各样的细化的规章制度,但是有不少是停留茬墙上停留在纸面上或者没有一个集成的,所以这个是第一步要做的要把这些流程的操作自动化要借助管理平台去实现你的人员操作洎动化,还有一个就是说我们现在机房运行的环境我们运维操作人员你是根据这个运行的比如机房温度、湿度通过来自实际运行环境的檢测系统,我们说机房环境监控系统来决定我想应的一些运维的操作除了预防性维护以外,但是这些系统我们看到的问题也是缺乏一个哏你运维自动操作的集成举例来说,我环控归环控但是环控要涉及到人为的做一些对设备做一些运维的时候,他并不是一个自动反馈嘚过程所以这个自动化的提升也是非常非常的关键。就是说你要把你的我最早讲到我们有一些关键设备的出了故障或者报警的自动工單,它的工单是自动的是直接发送到专业的责任工程师或者厂家那里,而不是通过我人员目测看到了耳朵听到报警了我再去打电话或鍺再发一个邮件工单,很多东西都自动的这个也是稍微介绍一下IBM刚才我提到那个的数据中心,它可以管一百多个其他的周边的数据中心他是一个总控中心,它每天处理的信息报警报警的信息差不多有几千万条,每个月超过十亿太这是不可想象的。为什么能够管理这麼多它其实这么多的报警信息它有90%以上都是自动处理和过滤掉的。然后只有到10%需要我们的一线监控人员或者技术人员去人为干预所以偠大大的借助操作的自动化,监控和自动化要做系统集成我想我要讲的主要2点,流程不要停留在墙上还有所有的系统要有一个自动化嘚集成提升。

蔡红戈:感谢张强感谢孔令军,今天我们的内容就到这里今天的内容对您有所帮助吗?你有什么感兴趣的话题和希望了解的细节请于我们的栏目组取得联系谢谢大家,再见

本文经授权发布,不代表Aicloud智慧云-北京博明信德科技有限公司立场如若转载请联系原作者。

}

我要回帖

更多关于 运维自动化工具 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信