巧用STONITH 在Linux集群环境中保持高可用性

日期: 2011-10-08 作者:Sander van Vugt翻译:张申佳 来源:TechTarget中国 英文

在之前有关数据中心高可用性系列的文章中,我们讲了如何搭建Linux高可用的架构。同时也让你知道“shoot the other node in the head(使出现问题的节点从集群环境中脱离,简称:STONITH)”技术对于确保在Linux集群中共享存储集成的重要性。在本篇中,你将会学到如何实施“split brain detection(分脑检测,简称:SBD)”STONITH,作为一个使用共享磁盘设备的STONITH程序,可以方便的在大部分环境中进行实施。   目前针对STONITH,有许多不同的程序可被使用。

SBD STONITH的优势在于部署的方便性和可靠性。唯一的要求是Linux……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

在之前有关数据中心高可用性系列的文章中,我们讲了如何搭建Linux高可用的架构。同时也让你知道“shoot the other node in the head(使出现问题的节点从集群环境中脱离,简称:STONITH)”技术对于确保在Linux集群中共享存储集成的重要性。在本篇中,你将会学到如何实施“split brain detection(分脑检测,简称:SBD)”STONITH,作为一个使用共享磁盘设备的STONITH程序,可以方便的在大部分环境中进行实施。

  目前针对STONITH,有许多不同的程序可被使用。SBD STONITH的优势在于部署的方便性和可靠性。唯一的要求是Linux环境中必须有共享存储。典型意义上说,就是需要一个“光纤存储网络——storage area network”(英文简称:SAN)。如果你没有一个SAN网络,你也可以使用Linux的iSCSI功能来搭建,有关iSCSI的介绍将会在之后的系列中详细阐述。

  在SBD STONITH里,Linux集群的节点们使用心跳机制来保持互相之间的信息更新。如果集群中的一个节点发生错误,一条有关此节点的错误记录就会被写下并发送到共享的存储设备。当文件系统资源安全的切换到Linux集群的另一个节点上之后,此节点就必须接受这条错误信息并自己关闭自己。

  SBD STONITH是一个简单但有效的方法用来确保在Linux集群环境中数据和其他节点的集成,但是要实现这个功能的前提条件是必须能够进入SAN环境。接下去的步骤描述了如何搭建SBD STONITH环境。

  1.首先,你必须创建一个小的逻辑单位(LUN)卷。理论上1MB就足够了,但是为了安全起见,最好的办法是创建一个至少一柱(一般为8MB)的SBD。接下来,你需要找到这个LUN设备独一无二的设备名称,因为这个将会被集群中的节点们看到。典型意义上来说,你会使用multipath –l命令在Linux集群中的一个节点来找出这个LUN所使用的独一无二的设备名称。

  2.现在作为root用户,从众多节点中的一个命令行开始,你需要标记你刚刚创建的SBD设备的LUN,使用sbd -d <devicename> create 命令。这条命令会将SBD的信息写入设备,所以不管你使用哪个设备名称,只要你能从那个节点看到这个设备就行。确保当使用此设备工作时,你工作的设备名称不会改变。那就意味着你应该使用/dev/disk/by-id 在一开始来命名设备名称。虽然这些名字又长又丑,但是至少他们不会改变。你可以使用ls-l 命令来查阅“简单的”设备名称。所以定义这个设备/dev/disk/by-id/scsi-149455400000000000000000003000000250600000f000000 作为SBD STONITH 设备, 使用sbd -d /dev//disk/by-id/scsi-149455400000000000000000003000000250600000f000000 来创建。

  4.此时,你可以使用sbd -d /dev/disk/by-id/scsi-149455400000000000000000003000000250600000f000000 dump 命令来查看哪些被写入了此设备。这给予了你类似下文的一份输出

Listing: Requesting current SBD information using sbd -d <device> dump

xen1:/dev/disk/by-id # sbd -d /dev/disk/by-id/scsi-149455400000000000000000003000000250600000f000000 dump

Header version  : 2

Number of slots  : 255

Sector size    : 512

Timeout (watchdog) : 2

Timeout (allocate) : 2

Timeout (loop)   : 1

Timeout (msgwait) : 4

  4.另外,使用kernel watchdogs来建立Linux系统也是必需的,其作用是帮助系统检测在集群中是否有节点被hung住。最优的方法是使用硬件协助的warchdog。如果,由于某些原因,这个方法对你正使用的硬件不适用,你可以使用watchdog的软件版本。要操作此步骤,在集群的所有节点中,位于/etc/init.d/boot.local文件里增加一行modprobe softdog就可以。

  5.此时,你可以启动Linux高可用管理客户端以及使用用户hacluster登录。选择Configuration > Resources并点击Add。

  6.在Add窗口中,选择Primitive 类型并点击OK。接着进入ID sbd-stonith。 确保下面的几组参数设定好:

  • ID: sbd
  • Class: stonith
  • Type: external/sbd

  7.在Instance Attributes选项卡上,你可以看到参数sbd_device当前并没有值。点击Edit,进入SBD设备的block设备名称。你必须确保block设备名称在Linux集群的所有节点上是相同的,所以确保使用/dev/disk/by-id names来完成这个操作。

  8.现在点击OK, 接着是两次Apply,在你的集群中增加资源。

  9.要完成此步骤,你还要在所有节点上创建一个文件,名为/etc/sysconfig/sbd。在此文件中,你必须定义两个参数。SBD_DEVICE 参数告诉集群软件当负载时,哪个设备必须使用SBD设备。SBD_OPTS 参数则用来告诉使用哪个开始参数。在接下去的列表中,有个例子来展示这个文件看上去的样子。千万不要忘记将sbd设备的名字放在/etc/sysconfig/sbd文件里,不然它不能正常工作。

Listing:

xen1:/dev/disk/by-id # cat /etc/sysconfig/sbd

SBD_DEVICE="/dev/disk/by-id/scsi-14945540000000000000000000300000026060 0000f000000-"

SBD_OPTS="-W"

  此时,STONITH就配置好了,你可以重启集群中的节点来确认是否工作正常。一旦重启了,你会看到STONITH代理从心跳管理接口直接启动。你的Linux集群现在就在一个安全区域内,所以你可以开始创建你想去保护的高可用资源。在本系列的下一篇中,你会学到如何在Linux高可用环境中搭建Apache。

相关推荐

  • NEC高可用集群软件EXPRESSCLUSTER X3.3发布

    2015年6月24日, 在NEC(中国)有限公司北京总部新址外交办公大楼,NEC面向中国市场发布了核心产品EXPRESSCLUSTER的最新版本X3.3。

  • 如何培训Unix员工管理Linux环境?

    你已经了解很多Unix到Linux实际迁移中的障碍,培训的难点你又知道多少呢?备份和高可用性又了解得如何?你如何监控性能并调节你的系统呢?

  • Linux系统下Webmin工具安装和管理教程(图)

    过去,要管理Linux系统你得是一名命令行专家,知道如何通过SSH服务远程控制与管理服务器。现在,Webmin提供给管理员们便捷的基于Web界面的管理方法。

  • 虚拟数据中心的高可用性部署指南

    大家都清楚部署高可用对企业而言一定是可以获益的。在高可用数据中心规划过程中,管理者需要反复考虑到物理服务器的冗余问题。在传统的非虚拟化HA环境中,相对地两台普通物理服务器一般只运行相同的操作系统及应用程序。对于运行有多个冗余虚拟机的集群服务器而言,保留适当的空间显得不是那么的重要,因为集群中还有另外一台服务器已经运行了一个或多个虚拟机的副本。本技术指南引领大家去了解数据中心高可用性规划的流程,虚拟化对于高可用性部署的意义以及数据中心常用的高可用性集群策略。