♦ cman_tool : CMAN에서의 관리용 프론트 엔드. CMAN을 시작하고 및 정지시키며 votes와 같은 내부적 매개 변수를 변경할 수 있음.
♦ local node의 클러스터 정보 확인 - multicast ip도 확인 가능
[root@cs-node01 ~]# cman_tool status
♦ Reload cluster.conf and update config version. 클러스터 xml 설정파일 reload 및 버전 업데이트.
[root@cs-node01 ~]# cman_tool version -r
--> ricci가 동작하여야 함. -r 옵션 : Reload cluster.conf and update config version.
--> 한쪽 노드에서 cluster.conf를 수정 후 이 명령을 실행하면 상대 노드도 cluster.conf 가 reload 되며 업데이트 됨.
* 만약 cman_tool로 노드간 cluster.conf 동기화를 실패한다면 ricci를 restart 해주고 cman_tool version -r 을 한다.
♦ group_tool : fencing, DLM, GFS, 디버그 정보와 관련된 그룹 목록을 얻기 위해 사용됨. master nodeid도 확인 가능.
[root@cs-node01 ~]# group_tool -v
[root@cs-node01 ~]# group_tool dump dlm
♦ 메뉴얼 펜싱
cs-node01 로 운영 중이던 시스템이 장애가 발생되었다는 상황으로 가정한다.
ipmi(ilo or imm)용 스위치 고장, ipmi 포트 고장(또는메인보드고장), impi ADMIN 비번 변경, 전원(완전차단) 등의 이유로 cs-node2에서 cs-node01의 ipmi 포트에 reboot 신호를 보내지 못 하면 cs-node02는 파일시스템 무결성 보장을 위해서 계속 fencing 시도만 하고 있는 상황으로 빠져버린다. -> 이 포스팅을 참조 한다.
cs-node01이 확실히 스토리지와 연결이 끊어진 상태라는게 관리자에 의해 확인이 되었다면 아래와 같이 관리자가 개입하여 cs-node01을 수동으로 fencing 처리하여 cs-node02로 서비스를 넘긴다.
[root@cs-node02 ~]# fence_ack_manual -n hb01
About to override fencing for hb01.
Improper use of this command can cause severe file system damage.
Continue [NO/absolutely]? absolutely
Done
-> 위와 같은 상황이 발생되는 것을 방지하기 위해서는 SAN fence, SCSI-3 PR(scsi, iscsi), SAN switch port 등을 이용한 fence 이중화가 필요하다.
♦ 2번 노드 머신을 fencing 시킴. 2번 노드 머신을 cluster.conf 에 정의된 설정에 따라 1번 노드가 fencing 시킴.
[root@cs-node01 ~]# fence_node hb02
♦ 클러스터 VIP 수동 추가
bond0 장치에 VIP 192.168.0.43 적용, 아래는 3가지 예
[root@cs-node01 ~]# ip ad add 192.168.0.43 dev bond0
-> bitmask를 명시하지 않으면 기본적으로 32 bitmask로 설정
[root@cs-node01 ~]# ip ad add 192.168.0.43/24 broadcast 192.168.0.255 dev bond0
[root@cs-node01 ~]# ip ad add 192.168.0.43/24 dev bond0
♦ 클러스터 VIP 수동 회수
bond0 장치에 할당된 VIP 회수, 아래는 위 추가 룰에 따른 삭제 방법.
[root@cs-node01 ~]# ip ad del 192.168.0.43/32 dev bond0
-> 추가 시 32 bitmask로 설정 하였으므로 32 bitmask 지정. 명시하지 않으면 삭제는 되지만 Warning 메시지 발생.
[root@cs-node01 ~]# ip ad del 192.168.0.43/24 broadcast 192.168.0.255 dev bond0
[root@cs-node01 ~]# ip ad del 192.168.0.43/24 dev bond0
♦ 클러스터 서비스 Enable
[root@cs-node01 ~]# clusvcadm -e 'Service Name' -m 'member'
♦ 클러스터 서비스 Disable
[root@cs-node01 ~]# clusvcadm -d 'Service Name'
♦ 클러스터 서비스 Stop
[root@cs-node01 ~]# clusvcadm -s 'Service Name'
♦ 클러스터 서비스 Relocate
[root@cs-node01 ~]# clusvcadm -r 'Service Name'
♦ 클러스터 서비스 Freezing
[root@cs-node01 ~]# clusvcadm -Z 'Service Name'
♦ 클러스터 서비스 unFreezing
[root@cs-node01 ~]# clusvcadm -U 'Service Name'
♦ 클러스터 서비스 Lock (Lock 상태에서는 cluster 서비스 시작이 안됨)
[root@cs-node01 ~]# clusvcadm -l 'Service Name'
♦ 클러스터 서비스 unLock
[root@cs-node01 ~]# clusvcadm -u 'Service Name'
♦ 클러스터 서비스 Lock 상태 보기
[root@cs-node01 ~]# clusvcadm -S 'Service Name'
♦ vmware ESXi의 guest vm의 uuid 값 확인 - 펜스를 위함. (ESXi 의 ip가 192.168.26.100 임)
[root@cs-node01 ~]# fence_vmware_soap -z -l root -p 'password' -a 192.168.26.100 -o list
CentOS65-2,564d30cc-c87f-d38c-3566-eea0f4757cb5
CentOS65-1,564df43a-16a4-e203-1bc1-246c28c357e8
♦ ESXi를 통해 CentOS65-2 의 가동 상태 확인 (CentOS65-2는 ESXi 상의 VM의 명칭 임, OS의 호스트명이 아님)
[root@cs-node01 ~]# fence_vmware_soap -z -l root -p 'passwd' -a 192.168.26.100 -o listfence_vmware_soap -a fence01 -l root -p 'password' -v -z -U 564d30cc-c87f-d38c-3566-eea0f4757cb5 -o status
Status: ON
♦ ESXi를 통해 CentOS65-2를 reboot 함
[root@cs-node01 ~]# fence_vmware_soap -a fence01 -l root -p 'passwd' -v -z -U 564d30cc-c87f-d38c-3566-eea0f4757cb5 -o reboot
♦ ipmi, ilo, imm 포트의 전원 상태 확인, 전원 끄기, 리붓
[root@node01 ~]# ipmitool -l lan -H 192.168.10.11 -I lanplus -U ADMIN -P 'password' chassis power status
[root@node01 ~]# ipmitool -l lan -H 192.168.10.11 -I lanplus -U ADMIN -P 'password' chassis power off
[root@node01 ~]# ipmitool -l lan -H 192.168.10.11 -I lanplus -U ADMIN -P 'password' chassis power reset
♦ 노드의 service 리소스 확인
[root@node01 ~]# ccs --lsservices -h node02
훌륭하군요
퍼가요 ~