利用WebSphereEdgeServer构建冷轧系统负载均衡

作者: 云计算机网 分类: 云计算知识 发布时间: 2016-04-15 23:46

某用户ERP系统运行了8年,其中冷轧车间系统运行近5年,其核心业务系统为冷轧数据汇总查询系统,基于WAS,DB2,Power小型机环境构建,稳定运行至今。由于冷轧查询功能开通了其他业务系统接口的查询功能,因此数据查询负载剧增,目前的Web负载拙荆见肘,基于业务系统的工业控制性,我们测试并比对了几种负载均衡方案,最后在F5等方案中脱颖而出,我们采用了EdgeServer的负载均衡方案。主要原因如下:

1、IBM WAS的负载均衡方案,和WAS的session负载均衡功能的java会话级负载均衡功能兼容性最佳,和硬件F5以及开源方案相比,省下了很多的配置风险。

2、对于WAS管理员的学习维护成本最低

3、可以充分利用sessionDB的数据库配置,并可以进行多层配置

4、免费!还有IBM 800的支持,何乐而不为呢?

我们的配置方式如下:

冷轧系统基于AIX环境,并基于版本依赖性的WAS版本。含Fixpack小版本号。

AIX操作系统的机器上安装 Load Balancer 组件的硬件和软件先决条件:

· AIX 版本: AIX 5.1 5100-04 维护包或 AIX 5.2 5200-01 维护包。支持 32 位或 64 位方式。

· 软件和文档所需的可用磁盘空间:50 MB,加上日志文件所需的附加空间。

· 以下网络接口卡(NIC)之一:

· 16Mb 令牌环。

· 10Mb 以太网。

· 100Mb 以太网。

· 1Gb 以太网。

· 光纤分布式数据接口(FDDI)。

· 多端口以太网 NIC。

· Java 2 Runtime Environment:此软件在 IBM AIX Developer Kit, Java 2 Technology Edition, 1.4.1.x 的任何版本中提供。

系统拓扑:

Edge Server安装 (172.16.5.30和172.16.5.31)以root用户登入装入WebSphere Edge Server 的光盘,mount /cdrom如果未建立/cdrom,则:mkdir /cdrommount –v cdrfs –p–r /dev/cd0 /cdrom进入/cdrom,执行./install (如果AIX版本为5.1,必须有bos.iocp 5.1.0.11或以上版本,如果AIX版本为5.2,则必须将光盘拷贝至硬盘目录中,注释掉install中的相关版本检查部分,然后从硬盘上安装)在欢迎窗口选Next许可证协议页面,选择Yes选择安装界面语言(中、英文均可,但中文需要操作系统语言包支持,这里仅以英文为例)并选择 Next在组件选择界面,选中Load Balancer中的Administration和Dispatcher,可以看到License和Runtime被同步选中,点Next察看待安装选项,点Proceed等待安装完成,点击Finish关闭窗口

Web服务器层群集配置暨Edge Server设置

对于该层群集的设置主要集中在对于30和31两台机器上。在该阶段中,我们需要分别配置并验证从Edge服务器(30上或31上)均可成功分发请求到30和31的Web服务器上。(Web服务器通过插件同后端应用服务器一级的连接分发,我们已经在上一节做了验证)所以在这里我们以30作分发控制器为例说明配置:

  • 如今,随着金融、电信、企业信息化等领域业务需求的不断增长,数据中心在规划和建设过程中面临着低成本、高能源效率等众多技术要求,建设绿色节能、安全、自动化,同时应用虚拟化技术的数据中心已经成为企业的需要。

    本文将对数据中心面临的管理问题以及如何利用虚拟化提升效率进行探讨。

      数据中心为企业业务提供数据服务,维持企业运营的命脉,但数据中心设备密度的不断增长也引发了计算设备的效率问题。

    高效率的数据中心要求其谁被具有高可管理性,在节省能源消耗的同时,还能够节约成本。

      而随着新一代数据中心所面临的建设高潮,对于虚拟化技术的应用已经必不可少。

    现在越来越多的企业用户已经开始将数据中心转移到了虚拟环境中。

    有调查显示,当前企业实施虚拟化技术的比率接近90%,虚拟化技术的发展无疑为数据中心效率的提升带来了新的契机。

      简单来讲,虚拟化技术能够减少数据中心计算设备的数量。

    虚拟化技术能够消除服务器与存储和网络设备对应用程序的物理局限,消除了对应用程序配置专用服务器引发的低效率问题。

      在虚拟服务器环境下,要对工作负载进行有效的分配才能保证满足虚拟服务器的实时变化,同时还要考虑到服务器的延时情况。

    随着服务器性能的衰减,其所运行的负载就应该以一种透明的方式分配给其它服务器,这样就能够保证负载平衡,同时这种变化也是自动完成的。

    服务器一旦进行了某种配置工作,负载平衡器会自动将网络数据流量分配出去,转交给虚拟服务器池处理。

      数据中心能够以基础的负载平衡来提供可靠性更强、速度更快的互联网和应用体验。

    高级负载平衡是作为能效性动态进行配置虚拟环境的重要组件。

    虚拟系统必须在实际系统中运行,这样才能完成处理工作,同时这也需要更高的智能水平。

    以现有的纯软件解决方案可以提供虚拟化功能,像许多处理器架构都集成了虚拟化功能。

      但是,无处不在的虚拟化技术也带来了许多新的管理问题。

    作为一个数据中心的管理员,应该了解哪些方面的能容呢?

      首先你必须要知道的是:我们可以借助虚拟化技术将基础设施整合,根据业务需要部署各种系统资源,但这对管理层面来讲,如何对虚拟资源进行动态的感知并自动实时的进行网络设备上的调整,确是悬而未决的问题。#p#分页标题#e#

      如果使用传统的管理软件进行物理设备的管理,对于虚拟机、虚拟网络等设备就无法识别了。

    但对于虚拟的数据中心来讲,不仅要确保对虚拟资源的控制, 还要明确资源的状态,实施自动化管理,同时对能物理资源进行配置。

    当虚拟资源进行迁移,增减时,系统也应能够自动完成策略部署工作。

      另一方面,虚拟化技术使得数据中心流量模型愈加复杂。

    那种基于云的应用相对于传统数据中心应用,对基础设施进行扩充、对流量管理的要求更高。

    所以说如何更好的进行应用管理和流量管理,是虚拟化时代数据中心亟待解决的问题。

      对基础设施的管理将为数据中心带来诸多益处。

    数据中心基础设施运行管理其实就是保证数据中心内各种应用能够持续、高效、稳定的运行。

    通过实施有效的管理,能够大幅提升数据中心IT效率,减少数据中心运营成本,提高系统的可靠性、灵活性以及易用性,使企业用户的投资回报率为最大,实现业务创新。

      确保数据中心高效、安全、可靠的运行,企业用户必须做好管理工作。

    在运行管理方面,需要建立一套高效、规范的运维体系来辅助管理。

    只有当规范和流程引入到混乱的应用环境中去,是每个运维技术人员切身地体会到按规范、按制度进行基础设施管理的好处,这样还能够不断完善运维体系,最终提高整体运维水平。

    在管理过程中,要注重新的理念、新的技术和新的方法,对那些能够实现节能、简化、高效管理的方法要重点关注,循序渐进,不断提升数据中心运行的稳定。

      数据中心的运行管理,无非是保证数据中心各系统和运行设备的正常、高效运行,其中包括了为业务流程和分析系统提供数据服务、存储服务、各种基础设施以及软件等组合平台,除此之外,对于人员的管理也是重要的,要不断加强与管理人员的沟通和交流,在实践中不断积累运维经验,找到一种适合企业自身的管理方法。

    (责任编辑:admin)

  • 相关推荐:

  • 如何利用虚拟化技术提高
  • 如何构建未来的云计算解
  • 什么叫物联网,如何构建
  • MAKA是什么意思,如何利
  • 戴尔推出下一代全球畅销
  • 如何构建现代化的IT基础
  • 发力城市数据湖浪潮与北
  • 想要构建现代化数据中心
  • SmartX与Mellanox达成战略合
  • Ubuntu 19.04(Disco Dingo)首
  • 网站内容禁止违规转载,转载授权联系中国云计算网