什么是脑裂?
裂脑通常用于描述集群中的两个或多个节点彼此失去连接但随后继续彼此独立运行(包括获取逻辑或物理资源)的场景,错误假设其他进程(es ) 不再运作或使用上述资源。简单来说,“大脑分裂”意味着有 2 个或更多不同的节点集或“队列”,两个队列之间没有通信。
例如:假设在以下情况下有 3 个节点。1. 节点 1,2 可以相互通信。2. 但是 1 和 2 不能和 3 对话,反之亦然。然后有两个同类群组:{1, 2} 和 {3}。
脑裂发生的原因
脑裂事件后的最大风险是破坏系统状态的可能性。损坏的三个典型原因:1. 在发生裂脑事件之前曾经合作的进程独立地修改相同的逻辑共享状态,从而导致系统状态视图发生冲突。这通常被称为“多主机问题”。2. 在Split-Brain 事件之后接受新请求,然后在可能损坏的系统状态上执行(因此可能进一步损坏系统状态)。3. 当分布式系统的进程“重新加入”在一起时,它们可能对系统状态或资源所有权有冲突的看法。在解决冲突的过程中,信息可能会丢失或损坏。
简单来说,在脑裂的情况下,从某种意义上说,有两个(或更多)独立的集群在同一个共享存储上工作。这有可能导致数据损坏。
集群件如何解决“脑裂”的情况?
在脑裂的情况下,投票磁盘将用于确定哪些节点存活以及哪些节点将被驱逐。共同投票结果将是:
- 具有更多集群节点的组(队列)存活
- 如果每个组中可用的节点数量相同,则具有较低节点成员的组(队列)将存活。
- 已经进行了一些改进,以确保负载较低的节点在系统负载高引起驱逐的情况下仍然存在。
通常,当发生裂脑时,会在 ocssd.log 中看到类似以下的消息:
[ CSSD]2011-01-12 23:23:08.090 [1262557536] >TRACE: clssnmCheckDskInfo: Checking disk info...
[ CSSD]2015-01-12 23:23:08.090 [1262557536] >ERROR: clssnmCheckDskInfo: Aborting local node to avoid splitbrain.
[ CSSD]2015-01-12 23:23:08.090 [1262557536] >ERROR: : my node(2), Leader(2), Size(1) VS Node(1), Leader(1), Size(2)
[ CSSD]2015-01-12 23:23:08.090 [1262557536] >ERROR:
###################################
[ CSSD]2015-01-12 23:23:08.090 [1262557536] >ERROR: clssscExit: CSSD aborting
###################################
以上消息表明从节点 2 到节点 1 的通信不工作,因此节点 2 只能看到 1 个节点,但节点 1 工作正常,它可以看到集群中的两个节点。为避免脑裂,节点 2 自行中止。
为确保数据一致性,RAC 数据库的每个实例都需要与其他实例保持心跳。心跳由 LMON、LMD、LMS 和 LCK 等后台进程维护。这些进程中的任何一个遇到 IPC 发送超时都会导致通信重新配置和实例驱逐以避免脑裂。控制文件与集群件层中的投票磁盘类似,用于确定哪些实例存活以及哪些实例驱逐。投票结果类似于集群件投票结果。结果,将驱逐 1 个或多个实例。
实例警报日志中的常见消息类似于:
alert log of instance 1:
---------
Mon Dec 07 19:43:05 2011
IPC Send timeout detected.Sender: ospid 26318
Receiver: inst 2 binc 554466600 ospid 29940
IPC Send timeout to 2.0 inc 8 for msg type 65521 from opid 20
Mon Dec 07 19:43:07 2011
Communications reconfiguration: instance_number 2
Mon Dec 07 19:43:07 2011
Trace dumping is performing id=[cdmp_20091207194307]
Waiting for clusterware split-brain resolution
Mon Dec 07 19:53:07 2011
Evicting instance 2 from cluster
Waiting for instances to leave:
2
...
alert log of instance 2:
---------
Mon Dec 07 19:42:18 2011
IPC Send timeout detected. Receiver ospid 29940
Mon Dec 07 19:42:18 2011
Errors in file
/u01/app/oracle/diag/rdbms/bd/BD2/trace/BD2_lmd0_29940.trc:
Trace dumping is performing id=[cdmp_20091207194307]
Mon Dec 07 19:42:20 2011
Waiting for clusterware split-brain resolution
Mon Dec 07 19:44:45 2011
ERROR: LMS0 (ospid: 29942) detects an idle connection to instance 1
Mon Dec 07 19:44:51 2011
ERROR: LMD0 (ospid: 29940) detects an idle connection to instance 1
Mon Dec 07 19:45:38 2011
ERROR: LMS1 (ospid: 29954) detects an idle connection to instance 1
Mon Dec 07 19:52:27 2011
Errors in file
/u01/app/oracle/diag/rdbms/bd/BD2/trace/PVBD2_lmon_29938.trc
(incident=90153):
ORA-29740: evicted by member 0, group incarnation 10
Incident details in:
/u01/app/oracle/diag/rdbms/bd/BD2/incident/incdir_90153/BD2_lmon_29938_i90153.trc
在上面的示例中,实例 2 LMD0 (pid 29940) 是 IPC 发送超时的接收方。
免责声明:本平台仅供信息发布交流之途,请谨慎判断信息真伪。如遇虚假诈骗信息,请立即举报
举报