linux实现高可用的核心在于构建集群,使用pacemaker结合corosync作为开源高可用解决方案,其中corosync负责集群成员间的心跳和消息同步,pacemaker作为集群大脑负责资源调度和故障转移。搭建pacemaker集群需准备:1)至少两台服务器并配置独立业务与心跳网络;2)共享存储如drbd;3)系统环境一致性;4)关闭防火墙与selinux;5)配置ntp时间同步;6)ssh免密登录。搭建步骤包括:1)安装核心组件;2)配置并启动集群;3)设置stonith设备;4)添加集群资源;5)配置资源组与约束。运维常见挑战包括脑裂、资源启动失败、stonith故障、网络问题和仲裁问题,需通过日志分析、定期测试、冗余配置及合理策略应对。
Linux实现高可用,核心在于构建集群,通过软件协调多台服务器,当一台出现故障时,另一台能迅速接管服务。Pacemaker结合Corosync是目前开源界非常成熟且广泛应用的高可用集群解决方案,它能确保关键应用在硬件故障或服务异常时持续在线。
Pacemaker和Corosync这对搭档,是Linux高可用领域里我个人觉得最实用、也最值得深入研究的组合。简单来说,Corosync负责集群成员间的“心跳”和消息同步,它确保每个节点都知道其他节点是否“活着”,并且能够快速地在节点间传递配置和状态信息。而Pacemaker,则是这个集群的“大脑”,它利用Corosync提供的集群通信能力,来管理和调度各种资源(比如IP地址、数据库服务、Web应用等)。
整个高可用机制是这样的:Pacemaker会持续监控这些资源的状态,如果发现某个资源在当前主节点上出了问题(比如服务崩溃,或者主节点直接宕机),它会立即启动“故障转移”流程。首先,它会通过STONITH(Shoot The Other Node In The Head,直译为“爆头”)机制,确保故障节点真的被隔离或关机,避免“脑裂”——这是集群最害怕的情况,即两个节点都认为自己是主节点,导致数据不一致甚至损坏。隔离完成后,Pacemaker就会在集群中的其他健康节点上启动这个资源,从而实现服务的无缝切换,用户几乎感觉不到中断。
说实话,每次开始一个新项目,搭建Pacemaker集群前的准备工作,我觉得比实际安装配置本身还重要,甚至可以说,很多后期遇到的“奇奇怪怪”的问题,根源都出在前期准备上。
/etc/hosts
firewalld
ufw
permissive
disabled
pcs
pcs
好了,准备工作就绪,接下来就是“干活”了。整个过程,我习惯把它拆解成几个关键环节,一步步来,会清晰很多,也方便排查问题。
安装核心组件: 在所有集群节点上安装Pacemaker、Corosync、pcs(集群管理工具)、resource-agents(资源代理)和fence-agents(隔离代理)。 以CentOS/RHEL为例:
yum install -y pacemaker corosync pcs resource-agents fence-agents
安装完成后,启动并启用
pcsd
pcs
systemctl enable pcsd systemctl start pcsd
设置
hacluster
pcs
echo "your_password" | passwd --stdin hacluster
配置并认证集群: 在其中一个节点上,使用
pcs
# 在node1上执行 pcs cluster auth node1 node2 -u hacluster -p your_password --force pcs cluster setup my_cluster node1 node2 pcs cluster start --all
检查集群状态:
pcs status
配置STONITH(隔离)设备: 这是集群安全的关键,没有STONITH的集群,就像一辆没有刹车的汽车。它能防止“脑裂”。STONITH设备通常是硬件层面的,比如ILO/iDRAC、IPMI等。
# 示例:配置一个基于IPMI的STONITH设备 pcs stonith create fence_ipmi_node1 fence_ipmilan ipaddr=192.168.1.200 login=admin passwd=password pcmk_host_list=node1 op monitor interval=60s pcs stonith create fence_ipmi_node2 fence_ipmilan ipaddr=192.168.1.201 login=admin passwd=password pcmk_host_list=node2 op monitor interval=60s # 启用STONITH pcs property set stonith-enabled=true
务必测试STONITH设备是否工作正常,这是生产环境部署前必须做的。
添加集群资源: 现在可以添加你想要高可用的服务了。资源可以是IP地址、文件系统、服务等。
# 示例1:添加一个虚拟IP地址资源 pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.1.100 cidr_netmask=24 op monitor interval=10s # 示例2:添加一个Nginx服务资源(假设Nginx已安装并配置好) pcs resource create NginxService systemd:nginx op monitor interval=20s
ocf:heartbeat:IPaddr2
systemd:nginx
配置资源组与约束(可选但推荐): 当你有多个相关联的资源时,可以使用资源组(
group
# 将VirtualIP和NginxService放入一个组 pcs resource group add WebAppGroup VirtualIP NginxService
你还可以添加约束(
colocation
order
# 示例:让NginxService在VirtualIP启动后才启动 pcs constraint order VirtualIP then NginxService # 示例:让NginxService和VirtualIP总是在同一个节点上 pcs constraint colocation add NginxService with VirtualIP INFINITY
说实话,搭建起来只是第一步,真正的挑战往往在后期运维中。Pacemaker虽然强大,但它也不是万能的,而且有时候,它会给你一些“惊喜”。
脑裂(Split-Brain): 这是集群最大的敌人,没有之一。当集群中的节点由于网络问题互相失去联系,各自认为对方已宕机,并尝试独立接管资源时,就会发生脑裂。这可能导致数据不一致甚至损坏。
pcs status
资源无法启动或漂移失败: 这是最常见的运维问题。
/usr/lib/ocf/resource.d/heartbeat/
/usr/lib/systemd/system/
journalctl -u corosync
journalctl -u pacemaker
journalctl -u pcsd
pcsd
pcs
/var/log/messages
syslog
pcs
pcs status
pcs resource show <resource_name>
pcs resource cleanup <resource_name>
STONITH设备故障: 如果STONITH设备本身出现问题,导致无法隔离故障节点,那么集群在面对脑裂风险时将束手无策。
网络问题: 心跳网络的不稳定或中断,是导致集群频繁切换、仲裁丢失甚至脑裂的罪魁祸首。
仲裁(Quorum)问题: 当集群中存活的节点数量不足以达到预设的仲裁阈值时(默认是超过半数),集群会停止所有资源以避免脑裂。
no-quorum-policy
pcs property set no-quorum-policy=ignore
排查思路通常是从底层往上:先检查网络和硬件,再看Corosync的通信,最后才是Pacemaker的资源调度。日志是你的最佳伙伴,学会阅读和分析日志,能解决绝大部分问题。
crm_mon -r
pcs status
以上就是Linux如何实现高可用?_LinuxPacemaker集群搭建实战的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 //m.sbmmt.com/ All Rights Reserved | php.cn | 湘ICP备2023035733号